기술-IT-인터넷 동향

대화형 인공지능(conversational AI)의 윤리 이슈

지구빵집 2019. 1. 17. 10:30
반응형

대화형 인공지능(conversational AI)의 윤리 이슈 

The ethical implications of conversational AI

챗봇이 일상생활의 일부가 되어가면서, 데이터 프라이버시 권리가 침해되는지 살펴볼 필요가 있다. 지난 3개월간 얼마나 많은 대화를 챗봇과 했는가? 이를 통해서 그 단서를 찾을 수도 있을 것이다.

소비자로서 우리는 수많은 온라인 서비스를 이용하면서 상호작용하고 있지만, 얼마나 많은 이가 사람인지 아니면 챗봇인지 인지하고 있지 못하다. 실제 그 차이를 인식하지 못할 수도 있다.

이미지출처 : https://www.itpro.co.uk/machine-learning/32201/the-ethical-implications-of-conversational-ai

우리가 이야기하고 있는 상대가 사람인지 아니면 챗봇인지 중요하지 않을 수 있다. 적어도 서비스가 제대로 제공되고 업무가 이루어진다면 말이다. 그러나 개인정보보보호의 관점에서 보자면 이야기가 달라진다.

챗봇에 가까운 미래에 얼마나 광범위하게 이용될 지에 대한 의견이 분분하다. 그러나 우리가 혁명의 중간에 있다는 것은 사실이다. IT 조사기관인 Gartner社는 2020년에 모든 소비자 서비스 운영 중 1/4 가량이 ‘가상 소비자 지원(virtual customer assistants)’을 이용할 것으로 예측했고, IBM은 같은 해 모든 소비자 상호 작용 중 85%가 인간의 개입 없이 이루어질 것이라고 전망한 바 있다.

왜 기업들이 인간보다 인공지능을 탑재한 봇을 선호하는 데는 많은 이유가 있다. 이들은 많은 훈련이 필요 없고 하루 24시간 내내 소비자들의 요구에 맞게 응대할 수 있다.

소비자들의 경우도 사람을 상대하는 것보다 챗봇을 이용하는 것에 대해 점차 선호도가 높아져가고 있다. Gartner社에 따르면 봇을 이용할 경우 소비자 만족도가 33% 올라가고, 콜이나 챗 또는 이메일 질의가 70% 감소하는 것으로 나타났다.

인공지능이 인간과의 상호작용을 기반으로 축적된 데이터를 통해 추론할 수 있다는 점에서는 의심의 여지가 없다. Juniper Research社의 연구원인 스테픈 소렐(Steffen Sorrell)은 인공지능 인터페이스 뒤에 막대한 데이터셋이 있다면 이런 일을 하는 것은 사소할 수도 있다고 말했다.

오픈소스 기반의 인공지능 프레임워크인 시드 토큰(Seed Token) 공동 설립자인 마크 스티븐 메도우스(Mark Stephen Meadows)는 인간이 말하는 단어를 모델링하고, 단어와 어구 등을 200여개자의 다른 벡터(성별, 나이 등)을 결합한다면 감정을 탐지하는 시스템을 만들 수도 있다고 지적했다. 이를 통해 이용자의 심리적 상황에 대한 깊은 통찰력을 얻을 수 있다고 그는 주장했다.

인공지능은 심지어 인간의 단어가 필요하지도 않다. 버몬트 대학은 인스타그램 그림에서 우울함을 특징으로 하는 표식을 식별했다. 이러한 진보는 그러나 데이터 프라이버시 권리가 침해되는 것은 아닌지 연구자들 사이에서 의문시되고 있다.

메도우스는 한 언론과의 인터뷰에서 우리는 잠재적인 문제에 직면하고 있다고 말했다. 즉, 인공지능은 사람들이 인공지능 시스템에 대해 알고 있는 지식보다 더 많은 지식을 축적하고 분석할 수 있기 때문에 윤리적인 문제를 안고 있을 수밖에 없다고 말했다. 수집되는 이용자 정보는 인공지능의 훈련에 사용되며, 이용자 정보 수집이 동의에 의해서 이루어지는 것만은 아니다.

스테픈 소렐은 인공지능 챗봇에게 자신의 재정 상태에 대한 우려사항을 논의했던 이용자에게 단기 대부업체가 서비스를 제공하는 사례를 제시했다.

소렐은 대부분의 소비자들이 이처럼 민감한 이슈에 대한 유출이 발생할 것이라는 기본적인 프라이버시 보호 이슈에 대해 고려할 것이라고 말했다. 그러나 이용자가 정보공유에 대한 명시적인 동의를 제공할 경우 이는 변화할 것이라고 그는 설명했다.

영국의 개인정보감독기구인 ICO(Information Commissioner’s Office)는 이에 동의했다. ICO의 대변인은 개인정보가 어디에서 처리되건 데이터 보호법률이 적용된다고 말했다. 조직은 개인정보를 공정하고 합법적으로, 그리고 투명하게 처리해야 하며 이는 어떠한 기술이 사용되건 불변하는 원칙이라고 말했다. 중요한 것은 개인이 정보처리에 대해 적절히 정보를 제공받고, 그들의 권리를 어떻게 행사하는지 확실히 인식하도록 하는 것이라고 그는 설명했다.

ICO는 인공지능 개발의 경우에도 디자인 초기단계부터 개인정보 보호를 고려하도록 하는 정책을 지속적으로 시행해야 한다고 지적했다.

특정 기술의 경우 조직은 디자인 단계에서의 개인정보보호를 고려하도록 해야 하고, 필요한 경우 개인정보 영향평가(DPIA, Data Protection Impact Assessment)를 수행해야 한다고 ICO는 지적했다. 이를 통해 조직은 정보의 처리가 기본적인 개인정보보호 원칙에 부응하도록 조치할 수 있다고 ICO는 덧붙였다.

유럽연합의 일반개인정보보호법(GDPR, General Data Protection Regulation)이 적용되는 경우 이용자들은 자신과 관련된 정보 공유 상황에 더 나은 통제권한을 가질 수 있다. 그러나 일반 대중이 쉽게 이해할 수 있는 방식으로 정보가 공유되지 않는다면, GDPR에 정의된 권한을 충분히 행사할 수 없다고 소렐은 주장했다.

그는 예를 들어 GDPR이 적용되는 경우라 하더라도, 알고리즘을 기반으로 한 결정에 대해 설명을 요청할 수 있다는 권리를 이해하는 이용자는 거의 없을 것이라고 지적했다.

메도우스의 Seed Token 프로젝트는 인공지능이 생성하는 데이터를 기업이 소유해야 한다는 기존의 인식을 뒤집는 것이다. 그 대신 블록체인과 오픈소스를 이용토록 함으로써 이용자가 자신의 프라이버시와 데이터 공유 선호사항을 특정하도록 하고 있다. 이를 통해 이용자와 개발자간 힘의 균형과 조화를 이룰 수 있다.

챗봇에 대한 투자가 증가하고, 이를 활용한 서비스가 많아지면서, 그 뒤에 있는 인공지능이 우리 자신도 모르는 우리들에 대한 많은 정보를 수집할 것으로 보인다.

그러나 이전 사물인터넷(IoT)과 마찬가지로 챗봇이 GDPR에 부합하지 않는다는 의견이 있어 이에 대한 논쟁이 향후 수년간 지속될 것으로 예상된다.

[해외과학기술동향 2018-11-08] 번역 기사 출처 : http://www.ndsl.kr/ndsl/search/detail/trend/trendSearchResultDetail.do?cn=GTB2018004756

원문출처 : https://www.itpro.co.uk/machine-learning/32201/the-ethical-implications-of-conversational-ai


반응형