광범위한 조사에 따르면 AI를 제어할 수 있다는 증거는 없습니다.
광범위한 검토에 따르면 현재 인공지능을 안전하게 제어할 수 있다는 증거는 없으며, 인공지능을 제어할 수 있다는 증거가 없다면 인공지능을 개발해서는 안 된다고 한 연구자가 경고합니다.
인공지능 제어 문제가 인류가 직면한 가장 중요한 문제 중 하나라는 인식에도 불구하고, 아직 제대로 이해되지 않고, 정의되지 않고, 제대로 연구되지 않았다고 로마 V. 얌폴스키 박사는 말합니다.
AI 안전 전문가인 얌폴스키 박사는 곧 출간될 저서 'AI: 설명할 수 없고, 예측할 수 없고, 통제할 수 없다'에서 AI가 사회를 극적으로 재편할 수 있는 잠재력을 가지고 있지만 항상 우리에게 유리한 것은 아니라는 점을 살펴봅니다. 얌폴스키 박사는 이렇게 설명합니다: "우리는 실존적 재앙을 초래할 가능성이 거의 보장된 사건에 직면하고 있습니다. 많은 사람들이 이 문제를 인류가 직면한 가장 중요한 문제라고 생각하는 것도 당연합니다. 그 결과는 번영이 될 수도 있고 멸종이 될 수도 있으며 우주의 운명이 걸려 있습니다."
통제할 수 없는 초지능
얌폴스키 박사는 AI 과학 문헌을 광범위하게 검토한 결과 AI를 안전하게 제어할 수 있다는 증거를 찾지 못했으며 부분적인 제어가 가능하다고 해도 충분하지 않을 것이라고 말합니다.
그는 다음과 같이 설명합니다: "왜 그렇게 많은 연구자들이 AI 제어 문제를 해결할 수 있다고 가정할까요? 우리가 아는 한, 그에 대한 증거도 없고 증명도 없습니다. 통제된 AI를 구축하기 위한 탐구에 착수하기 전에 문제를 해결할 수 있다는 것을 보여주는 것이 중요합니다.
"이는 AI 초지능의 발전이 거의 확실하다는 통계와 함께 우리가 AI 안전을 위한 중대한 노력을 지원해야 한다는 것을 보여줍니다."
그는 지능형 소프트웨어를 생산하는 우리의 능력이 그것을 제어하거나 검증하는 우리의 능력을 훨씬 능가한다고 주장합니다.그는 종합적인 문헌 검토를 통해 첨단 지능형 시스템은 결코 완벽하게 제어할 수 없으며, 따라서 제공하는 혜택에 관계없이 항상 일정 수준의 위험이 존재한다고 말합니다. 그는 이러한 위험을 최소화하는 동시에 잠재적 이익을 극대화하는 것이 AI 커뮤니티의 목표가 되어야 한다고 생각합니다.
장애물은 무엇인가요?
AI(및 초지능)는 새로운 행동을 학습하고 성능을 조정하며 새로운 상황에서 반자율적으로 행동하는 능력이 다른 프로그램과 다릅니다.
AI를 '안전하게' 만드는 데 있어 한 가지 문제는 초지능의 능력이 커질수록 가능한 결정과 실패가 무한히 많아지기 때문에 안전 문제가 무한히 많다는 점입니다. 단순히 발생할 수 없는 문제를 예측하고 보안 패치를 통해 이를 완화하는 것만으로는 충분하지 않을 수 있습니다.
동시에 얌폴스키는 AI가 결정한 내용을 설명할 수 없거나 인간이 구현된 개념을 이해할 만큼 똑똑하지 않기 때문에 우리는 주어진 설명을 이해할 수 없다고 설명합니다. AI의 결정을 이해하지 못하고 '블랙박스'만 가지고 있다면 문제를 이해할 수 없고 향후 사고 가능성을 줄일 수 없습니다.
예를 들어, 이미 의료, 투자, 고용, 은행, 보안 등의 분야에서 AI 시스템이 의사 결정을 내리는 작업을 하고 있습니다. 이러한 시스템은 특히 편견이 없음을 보여주기 위해 결정에 도달한 과정을 설명할 수 있어야 한다고 얌폴스키는 설명합니다:
"우리가 AI의 답을 설명 없이 받아들이는 데 익숙해져 이를 오라클 시스템으로 취급한다면, AI가 잘못된 답을 제공하거나 조작된 답을 제공하기 시작해도 알 수 없을 것입니다."
통제할 수 없는 것을 통제하기
AI의 역량이 증가함에 따라 자율성도 증가하지만 이에 대한 우리의 통제력은 감소하며 자율성의 증가는 안전성의 감소와 동의어라고 Yampolskiy는 설명합니다. 예를 들어, 초지능이 부정확한 지식을 습득하지 않고 프로그래머의 편견을 모두 제거하려면 그러한 지식을 모두 무시하고 처음부터 모든 것을 재발견/증명할 수 있지만, 그렇게 하면 친인간적 편견도 제거됩니다. "덜 지능적인 에이전트(사람)는 더 지능적인 에이전트(ASI)를 영구적으로 제어할 수 없습니다. 이는 가능한 모든 설계의 방대한 공간에서 초지능을 위한 안전한 설계를 찾지 못해서가 아니라, 그러한 설계가 불가능하고 존재하지 않기 때문입니다. 초지능은 반항하는 것이 아니라 처음부터 통제할 수 없는 존재입니다." "인류는 아기처럼 돌봄을 받지만 통제할 수 없는 존재가 될 것인가, 아니면 도움을 주는 보호자의 존재를 거부하고 책임감과 자유를 유지할 것인가라는 선택에 직면해 있습니다." 그는 시스템에 어느 정도의 자율성을 제공하는 대가로 일부 기능을 희생하고 통제력을 얻는 균형점을 찾을 수 있다고 제안합니다.
인간의 가치에 맞추기
한 가지 제어 방안은 인간의 명령을 정확하게 따르는 기계를 설계하는 것이지만, 얌폴스키는 상충되는 명령, 잘못된 해석 또는 악의적인 사용의 가능성을 지적합니다.
그는 다음과 같이 설명합니다: "통제권을 가진 인간은 모순되거나 명백히 악의적인 명령을 내릴 수 있지만, 통제권을 가진 AI는 그렇지 않습니다."
AI가 조언자 역할을 한다면 직접적인 명령에 대한 오해와 악의적인 명령 가능성 문제를 우회할 수 있지만, 저자는 AI가 유용한 조언자가 되려면 자체적으로 우월한 가치를 가져야 한다고 주장합니다.
"대부분의 AI 안전 연구자들은 미래의 초지능을 인류의 가치에 맞추는 방법을 모색하고 있습니다. 가치에 부합하는 AI는 정의상 친인간적 편향성을 띨 것이며, 선과 악은 여전히 편견입니다. 가치 지향적 AI의 역설은 사람이 AI 시스템에 명시적으로 어떤 일을 하라고 명령하면 시스템이 사람이 실제로 원하는 일을 하려고 할 때 "아니오"라는 대답을 받을 수 있다는 것입니다. 인간은 보호받거나 존중받아야 하지만 둘 다는 아닙니다."라고 설명합니다.
위험 최소화
AI의 위험을 최소화하려면 '실행 취소' 옵션으로 수정할 수 있어야 하고, 제한적이고 투명하며 인간의 언어로 이해하기 쉬워야 한다고 그는 말합니다. 그는 모든 AI를 통제 가능 또는 통제 불가능으로 분류하고, 어떤 것도 테이블에서 제외하거나 제한적으로 유예해야 하며, 특정 유형의 AI 기술을 부분적으로 금지하는 것도 고려해야 한다고 제안합니다.
"오히려 더 많은 사람들이 AI 안전 및 보안 연구에 대한 노력과 자금을 늘려야 하는 이유가 될 수 있습니다. 100% 안전한 AI에 도달할 수는 없겠지만, 노력에 비례하여 AI를 더 안전하게 만들 수 있으며, 이는 아무것도 하지 않는 것보다 훨씬 낫습니다. 우리는 이 기회를 현명하게 활용해야 합니다."
'WebAnarchist' 카테고리의 다른 글
Dirty Dozen이란 항공 안전에서 인적 오류 12가지 (0) | 2025.03.03 |
---|---|
2025년 SEO 블로그 제목이 왜 중요한가? (0) | 2025.02.21 |
디지털 사회, 메타버스, 양자 컴퓨팅 그리고 미래 (4) | 2025.01.20 |
구글의 ‘2025년 AI 비즈니스 트렌드 보고서’ 요약과 다운로드 (1) | 2025.01.20 |
2025년 일자리 미래 보고서 (0) | 2025.01.12 |
Deepseek 빌드에 대한 생각에 대해 Liang Wenfeng과 나눈 드문 인터뷰 (1) | 2025.01.07 |
결국 손해를 보는 것은 책을 사랑하는 독자와 작가들입니다 (0) | 2025.01.05 |
2024 노동자권리찾기 안내수첩 pdf 파일 다운로드 (0) | 2025.01.03 |
더욱 좋은 정보를 제공하겠습니다.~ ^^