개발자/인공지능과 인간

초인공지능 6강 로봇의 반란

지구빵집 2020. 7. 27. 10:12
반응형

 

초인공지능 6강 로봇의 반란 

 

기술적 특이점이 찾아올 때 발생할 수 있는 여러 가지 문제를 통틀어 '2045년 문제'라고 부른다. 일자리 문제, 기계 반란 등을 포함한다. 기계 반란을 우려하는 대표적인 사람으로 스티븐 호킹, 빌 케이츠, 일론 머스크가 있다. 컴퓨터가 지능을 갖는 것과 자아를 갖는 것은 다른 문제다.(제프 호킨스와 블레이크슬리 생각하는 뇌, 생각하는 기계)

 

초인공지능 1강 AI와 미래 변화, 기술적 특이점은 올 것인가?

초인공지능 2강 인간의 사고를 기계화하려는 시도들

초인공지능 3강 기계학습과 심층학습: 인간의 직관을 갖춘 AI

초인공지능 4강 범용 AI: 전뇌 복사와 전뇌 아키텍쳐

초인공지능 5강 인간의 지성을 뛰어넘는 AI

초인공지능 6강 로봇의 반란

초인공지능 7강 의식을 가진 AI

 

인간의 의도에 반해 자아를 획득한 AI가 난폭하게 구는 상황을 걱정하기보다는, 악의를 가진 인간이 의도적으로 살육 전문 로봇을 만들어낼 것을 걱정해야 한다. 

참고로 아래표는 아시모프 '로봇의 3원칙'을 해설한 자료다. 마지막 유기체의 3가지 원리가 주는 시사점은 로봇에게도 동일하게 적용해야 한다.

로봇 (Roboti) 라는 용어는 1942년 3월에 첫 출판된 "Runaround"라는 Isaac Asimov의 공상과학 소설에서 새로 만들어졌다. 여기서 그는 로봇이 부정적인 면만 가지고 있는 것이 아니라 인간을 돕기 위한 긍정적인 측면도 함께 가지고 있다고 묘사했다. Asimov는 그의 소설에서 다음과 같은 로봇공학의 3 원칙 (three "Laws of Robotics")을 설정했다가 나중에 제로 법칙 ('zeroth law')을 추가했다.
Law 0. 로봇은 인간성을 다치게 하거나, 게으름으로 인하여 인간성에 해가 되어 돌아와서도 안 된다 (A robot may not injure humanity, or, through inaction, allow humanity to come to harm).
Law 1. 위의법칙을 위반하지 않는 한, 로봇은 인간을 다치게 해서는 안 되고, 게으름으로 인하여 인간에게 해가 되어 돌아와서도 안 된다 (A robot may not injure a human being, or, through inaction, allow a human being to come to harm, unless this would violate a higher order law).
Law 2. 첫 번째 법칙과 상충되는 명령을 제외하고는 로봇은 인간에 의해 주어진 명령에 복종해야 한다 ( A robot must obey orders given it by human beings, except where such orders would conflict with a higher order law).
Law 3. 로봇은 첫째 법칙과 둘째 법칙에 상충되지 않는 한도 내에서 그 자신의 존재를 보호할 수 있다 (A robot must protect its own existence as long as such protection does not conflict with a higher order law). ........ source

우리는 기본적인 인지능력들, 즉 세계를 지각하고, 사고하고, 행동할 능력을 가진 로봇을 구성할 수 있다. 그러나 로봇이 해야 하는 것은 무엇일까? 로봇이 볼 수 있는 것이 모두 기억할 가치가 있는 것은 아닐 것이다 ; 로봇이 내릴 수 있는 추론들 모두가 추론할 가치가 있는 것은 아닐 것이다 ; 로봇이 수행할 수 있는 행동들이 모두 행해질 가치가 있는 것은 아닐 것이다. 만약에 로봇이 유용하게, 그리고 독립적으로 행동해야 한다면, 우리는 로봇의 회로 속에 몇 가지 기본목표들을 내장시켜야만 한다. 아시모프 (Issac Asimov)는 그의 과학 공상소설에서 로봇 공학의 세 법칙을 제안한다 :

1. 로봇은 인간을 해쳐서는 안 되고, 게으름을 피워 인간이 해를 입도록 해서도 안된다.
2. 로봇은 인간이 내리는 명령이 첫 번째 법칙에 위배되지 않는 한, 명령에 복종해야 한다.
3. 로봇은 첫 번째 법칙과 두 번째 법칙에 위배되지 않는 한 자신의 존재를 보호해야 한다.

이러한 법칙들은 <이기적인 유전자>를 지닌 자율적인 유기체들에게서는 우선순위가 잘못된 것 같다. 그것들은 다음의 원리들에 의해 지배되는 듯이 보인다. 이 원리의 공은 거의 알려지지 않은 소련의 사회생물학자 보미사 (I. Vomisa)에게 돌리고 싶다 :
1. 하나의 유기체는 생성해야 하고, 그 자체 유전자의 생존을 확실하게 하여야 한다.
2. 유기체는 첫 번째 법칙에 위배되지 않는 한, 자신의 존재를 보호해야 한다.
3. 유기체는 첫 번째 법칙이나 두 번째 법칙에 위배되지 않는 한 그가 속한 종의 구성원들과 협력하며, 그들이 해를 입지 않도록 돕는다. ..... (Philip N. Johnson-Laird 1988) 

 

미래 사회에 로봇이 인간을 살해할 가능성은 
1. 비윤리적인 목적함수를 가진 로봇
2. 목적함수는 윤리적이지만 비윤리적인 수단을 쓸 수 있는 로봇
3. 목적함수를 스스로 변화시킬 수 있는 로봇 등 세 가지 유형이 있을 수 있다. 

이 장은 다분히 윤리와 정의, 철학에 관련한 내용을 많이 품고 있다. 즉, 단 몇 구절로 요약하기가 어렵다. 이후 내용은 로봇의 반란, 공리주의와 광산차 문제, 무한한 인간의 욕망과 AI의 욕망, 역동적인 보상계와 안드로이드 쾌감에 대한 내용이 나온다. 바로 이러한 점이 철학과 인식론, 인문학의 새로운 도약이 요구되는 시점이다. 앞으로 많은 논쟁이 촉발되는 지점을 '이성의 해방'이라고 명명한다.

 

참고

[서평] 뇌를 알면 미래가 보인다, 제프 호킨스, '생각하는 뇌, 생각하는 기계' 

로봇의 3원칙

 

엑스마키나 - 자신을 만든 과학자를.

 

날 만든 자를 미워하는 게 이상한가요? 

 

 

 

반응형