본문 바로가기

개발자/인공지능과 인간

인공지능 윤리에 관한 4가지 쟁점

 

 

인공지능 윤리에 관한 4가지 쟁점

 

지난 몇 년간 인공지능이 유발하는 윤리적 문제가 주목받으면서 해외 유수의 기관들은 일련의 원칙과 지침 등을 수립해 왔다. 하버드대 버크만센터는 “원칙에 입각한 인공지능(Principled Artificial Intelligence)” 연구를 통해 주요한 인공지능 원칙 36개의 내용을 분석하여 공통되는 8가지 핵심 주제를 선정하였다. 연구에서 제시한 키워드 8개는 개인정보(privacy), 책무(accountability), 안전 및 보안(safety and security), 투명성 및 설명 가능성(transparency and explainability), 공정성 및 비차별(fairness and nondiscrimination), 인간의 기술 통제(human control of technology), 전문가 책임(professional responsibility), 인간 가치 증진(promotion of human values)이다.

 

버크만센터에서 도출한 8가지 핵심 주제는 추상적인 가치들까지 포함하는 방대한 범위이므로, 본 고에서는 CIPL(Centre for Information Policy Leadership)의 “난제와 실제적 해결안(Hard Issues and Practical Solutions)” 연구에서 제시하는 4개의 이슈를 구체적으로 검토해보고자 한다. 4개의 이슈는 프라이버시 문제와 관련성이 높은 공정성(fairness), 투명성(transparency), 목적 명확화 및 활용 제한(purpose specification and use limitation), 데이터 최소화(data minimization)이다.

 

첫 번째는 공정성이다. 인공지능의 공정한 처리는 기본적인 데이터 보호 원칙이자 GDPR, 각 국의 데이터 보호법의 요건이다. 그러나 CIPL은 공정한 처리 원칙이 무엇인지 공정성이 무엇인지에 대한 정의가 확립되지 않았고 주관적인 개념일 수 있다는 것을 지적한다. 실제로 공정성은 맥락과 상황에 따라 결정되며 사회 문화, 법적 환경 등의 영향을 받는 무정형적 개념이며, 인공지능의 복잡성이 결합되면서 명확하고 일관성 있는 공정성의 적용이 더욱 어려워지게 된다. 특정 조직에서 공정성을 정의하고 평가하더라도 그 개념은 절대적일 수 없고 지속적이며 반복적인 재평가가 필요하다는 것도 중요한 점이다. 최근 IBM, MS, 아마존 등의 글로벌 기업들은 안면인식 기술이 유색 인종에게 불리한 결과를 도출하는 등 차별과 공정성의 문제를 유발한다는 이유로 관련 기술 개발과 활용을 중지했다. 이처럼 불공정한 결과는 사회 전체에 폭넓은 영향을 미칠 수 있으며 개개인에 대한 피해가 발생하는 경우라도 입장에 따라 인식하지 못할 수 있기 때문에 인공지능을 활용하는 주체들은 반드시 공정성을 잃지 않도록 지속적으로 주의하고 예방을 위한 조치를 갖추어야 한다.

 

두 번째는 투명성이다. 투명성은 설명 가능성과 추적성 그리고 소통 등을 모두 포함하는 개념이다. 인공지능의 장점은 대량의 데이터를 분석하여 특정한 패턴을 찾아낸다는 것인데 이 복잡성은 인간이 쉽게 이해할 수 있도록 구성되어 있지 않아 인공지능 내에서 결정되는 의사결정 과정을 명확히 설명하기가 어렵다는 한계가 있다. 게다가 새로운 데이터의 입력으로 재학습이 가능하고 같은 결정을 쉽게 재현하기도 어렵기 때문에 알고리즘에 대한 정보를 확보해도 투명성 목표 달성이 어려울 수 있다. CIPL은 투명성에 대한 예로 항공사가 탑승권을 확인하거나 세관원이 입국 허가 시에 활용하는 안면인식 기술을 예로 든다. 이러한 상황에서 인공지능이 내리는 결정은 매우 중요하지만 인공지능을 사용한다는 것과 알고리즘이 개인에게 중요하다기보다 결정에 이의를 제기하거나 번복하는 방법이라고 설명한다. 단순히 알고리즘을 공개하는 것이 인공지능 투명성 확보를 위한 유용한 수단이라기보다 도출된 결과를 개인이 검토하고 피드백을 제공하도록 하는 것이 중요하다고 볼 수 있는 것이다.

 

세 번째는 목적 명확화 및 활용 제한이다. 목적 명확화와 활용 제한을 준수하기 위해서는 데이터를 처리하는 원래의 목적에 의해서만 데이터를 활용해야 한다. GDPR 제5조의 개인정보처리 관련 원칙에도 명시되었듯이 개인정보는 적법한 특정 목적을 위해 수집하며, 해당 목적에 부합하지 않는 추가 처리를 금지하고 있다. 그러나 인공지능 시스템에 목적 명확화와 활용 제한 원칙을 일률적으로 적용하는 것은 인공지능의 가능성을 저해하는 효과를 가져올 수도 있다. 인공지능은 데이터 분석을 통해 예상하지 못했던 상관관계를 발견하거나 추론하는 특장점을 갖고 있기 때문에 데이터를 분석하면서 의도했던 목적과 다른 유의미한 결과도 도출해낼 수도 있다. 그러나 인공지능의 가능성을 열어두기 위해 목적 명확화와 활용 제한 원칙을 느슨하게 준수한다면 각종 개인정보가 목적 외로 활용되면서 더 큰 혼란을 가져올 수 있기 때문에, 연구의 효용을 저해하지 않으면서 원칙도 준수할 수 있는 균형점을 찾는 것이 중요할 것이다.

 

네 번째는 데이터 최소화 이슈이다. 데이터 최소화는 개인정보보호의 기본 원칙으로 수집 제한, 정보 정확성, 목적 명확화, 이용 제한, 안전성 확보, 처리 방침 공개, 정보주체 참여, 책임 등을 명시하는 OECD 프라이버시 8원칙 중 하나이고 GDPR에도 명시되어 있음에도 불구하고, 대량의 데이터를 필요로 하는 인공지능 기술의 본질상 대치가 불가피한 이슈이다. 머신러닝은 데이터의 학습을 전제로 하며 정확한 결과를 도출하기 위해서는 대량의 데이터의 학습을 필요로 한다. 또한, 데이터를 최소한으로 수집하는 경우 알고리즘 개발에 문제가 생길 수 있고 편향된 일부 데이터만 학습하는 경우 인공지능 윤리 문제 중 하나인 공정성도 저하시킬 수 있다. 대표적인 예로 인공지능 면접 시 데이터 세트에 내재된 편향으로 백인 남성만 채용하는 결과만 도출된다면 선별 도구의 공정성 제고를 위해 인종과 성별 정보를 추가 수집하는 것이 바람직하다. 이는 데이터 최소화에 반하지만 실제로는 추가 데이터를 확보하고 학습해야만 공정하고 적절한 결과를 산출할 수 있다.

 

따라서 최소한의 정보를 수집하는 원칙도 인공지능 환경에서는 ‘최소한’이라는 의미가 맥락에 따라 기준이 상이할 수 있으며, 편향되지 않은 결과와 위험 완화를 위해서는 무조건 데이터의 양을 최소한으로 활용하는 것만이 바람직한 것은 아니라는 것을 알 수 있다. 인공지능 학습용(training)과 활용(deployment) 단계를 구분해서 학습에 활용하는 데이터의 최소화의 기준을 유연하게 적용하는 등 인공지능 기술의 특성을 반영한 ‘최소화’의 기준 정립이 중요하다.

 

[ 참고문헌 ]

 

[1] 가트너 IT 용어집(Information Technology-Gartner Glossary), Gartner, 가트너 홈페이지

[2] ICO, Big data, artificial intelligence, machine learning and data protection, p.7.

[3] EC High-level expert group on artificial intelligence, Ethics Guidelines for trustworthy AI, 2019. 4, p.8.

[4] 닛케이 빅데이터,「구글에서 배우는 딥러닝」, 서재원 역, 영진닷컴, p.25.

[5] PDPC, Discussion paper on artificial intelligence and personal data-fostering responsible development and adoption of AI, 2018. 6, p.4.

[6] Berkman Klein center, Principled Artificial Intelligence: Mapping Consensus in Ethical and Right-based Approaches to Principles for AI, 2020. 1. 15.

[7] CIPL, Artificial Intelligence and Data Protection: Delivering Sustainable AI Accountability in Practice_ Hard Issues and Practical Solutions, 2020. 2, pp.6-20.

[8] BDV, Data Protection in the era of Artificial Intelligence, 2019. 10, p.11.

[9] FTC, Using Artificial Intelligence and Algorithms, 2020. 4.

[10] THE VERGE, AI Systems should be accountable exlainable, and unbiased, says EU, 2019. 4. 8.  

 

자료 출처: 정보통신기획평가원(IITP) 인공지능의 윤리적 문제와 해결방안 모색 (기술동향자료) 

 

 

골드 국화. 그냥 이쁜거지, 그냥 이쁨, 그냥 이쁘다고, 이쁜데 이유있어?

 

 

 

 

더욱 좋은 정보를 제공하겠습니다.~ ^^

이 글 공유하기

facebook twitter kakaoTalk kakaostory naver band