개발자/인공지능과 인간

범죄 예측 AI 연구 논문 철회 요청, AI 연구자 집단

지구빵집 2022. 6. 16. 08:10
반응형

 

 

AI 연구자 집단, 범죄 예측 AI 연구 논문 철회 요청 

 

2,400명이 넘는 산·학·연 AI 연구자들이 신경망을 적용한 안면 인식 기반의 범죄 예측 논문의 게재 철회를 공개적으로 요청(2020.6.)

 

美, Harrisburg 과학기술대학의 연구진은 독일 Springer Publishing社를 통해 얼굴 인식 기반의 범죄 예측을 다룬 논문의 게재 예정 발표 (2020.5.)

 

* 논문 제목은 “A Deep Neural Network Model to Predict Criminality Using Image Processing”으로 Springer Nature - ResearchBook Series:Transactions onComputationalScience andComputationalIntelligence게재예정이라고 소개

 

논문의 게재 예정 소식이 전해지자 지난 6월 22일 2,435명의 산·학·연 AI 연구자들은 해당 논문의 게재 철회를 요청하는 공식 서한을 온라인에 공개 

 

 

 

AI 연구자들은 공개서한을 통해 범죄 예측을 위한 AI 기술 활용의 윤리적 문제와 방법론적 오류에 대한 심각한 우려(Grave Concern)를 표명

 

윤리 사람의 신체 정보를 바탕으로 한 안면 인식 기술은 정확하지 않은 성능으로 그간 인종 차별 이슈 등 사회적 논란*을 야기한 바, 매우 신중한 접근이 필요

 

* 지난 2016년 미국의 주 법원에서 사용하던 재범위험예측 소프트웨어인 COMPAS는 흑인을 고위험군으로 분류했지만 실제 재범율은 백인에 비해 절반 이하에 불과

 

방법론 신경망 학습에 활용한 각종 범죄자 정보 자체가 사회적 편견의 산물일뿐만 아니라 사람의 얼굴 특성과 범죄 예측 사이의 인과 관계를 설정하는 것 자체가 오류

 

- 유색 인종에 대한 차별이 반영된 기존 형사 시스템에서 생성된 데이터 자체가 왜곡된 것이므로 ‘더 많은 데이터’와 ‘효과적 전처리’ 기술도 근본적인 해결책이 될 수 없음

 

- 또한, 기계학습 모델이 사물 인식에서 월등한 성능을 낸다고 해서 그것을 범죄자 얼굴 인식과 예측에 적용하는 것은 잘못된 접근*

 

* 뚜렷이 식별 가능한 사물과 달리 ‘범죄자의 얼굴’은 비교·평가할 수 있는 실제 검증 자료(Ground Truth)가 존재하지 않음 

 

 

인공지능의 공정성에 대한 사회적 논의 확대 전망

 

이번 AI연구자들의 학술 논문 철회 요구*는 향후 데이터 편향성, 알고리즘 중립성 및 관련 AI 기술에 대한 규제 필요성을 촉구하는 사회적 논쟁으로 확산될 전망

 

* 현재 해당 논문은 최종 심사 결과 게재 불가로 저자들에게 통보된 상태(6.22.)

기계 학습 연구에 활용하는 데이터가 정치, 사회, 문화, 법·제도 등과 연관성이 높을 경우 데이터 편향성에 대한 보다 면밀한 사전 검토 필요

 

- AI기술전문가, 데이터 과학자 그리고 사회학자, 인류학자, 철학자 등 인문사회연구자들이 협업을 통해 학습 데이터의 사회·문화적 맥락에 따른 오류가능성 확인 필요 

 

참고기사 

 

TechCrunch, “AI researchers condemn predictive crime software, citing racial bias and flawed methods”, 2020. 6. 24.

 

 

이미지 출처 참고 기사

 

 

 

 

 

반응형