본문 바로가기

개발자/인공지능과 인간

인공지능 분야의 개략적인 역사

 

 

역사에 대해 알아보는 일은 중요하다. 세상에 없던 것이 나오는 경우는 없다. 누구나 자라온 환경에서 보고 듣는 것에 기반하지 않은 사고와 창의성은 나오지 않기 때문이다. 아래 인공지능의 역사에 대한 포스팅은 서울대학교 컴퓨터공학과 대학원에 재학중인 오현석님 ai study 사이트에 있는 내용을 참고하여 추가하고 내용을 풀어쓴 것이다. AI 분야에 대해 정리를 탁월하게 하셨다. 같은 사이트의 링크를 가능하면 그대로 두었고 추가 되는 내용의 링크를 삽입했다.

 

인공지능 역사에 대한 다른 포스팅을 참고한다. 아래 강의 자료를 참고한다.

 

인공지능 분야의 개략적인 역사

꼼꼼하게 풀어쓴 인공지능의 역사 1900년~1950년

꼼꼼하게 풀어쓴 인공지능의 역사 1943년~1970년

꼼꼼하게 풀어쓴 인공지능의 역사 1970년~1980년

꼼꼼하게 풀어쓴 인공지능의 역사 1980년~1990년

꼼꼼하게 풀어쓴 인공지능의 역사 1990년~현재

 

인공지능 분야의 개략적인 역사

 

제1기 : 태동기(1943~1951)

 

인공지능이란 분야를 처음으로 인식하기 시작한 것은 1943년 McCulloch와 Pitts에 의해서이다. 이들의 인공지능을 연구하게 된 것은 뇌에 있어서 뉴런의 물리적인 기능과 작용에 대한 연구, 명제 논리, 그리고 튜링 연구라는 3가지 동기에서였다. 이들은 인공지능의 모델로서 뉴런이 서로 시냅스에 의해 연결되어 있는 모델을 제안하였다. 한 뉴런이 다른 연결된 뉴런으로부터 자극을 받으면 “on” 또는 “off”로 표시하여 뉴런 간의 작용 관계를 모델화하였다. 이때의 뉴런은 ‘충분한 자극을 제공하는 하나의 명제’라고 개념적으로 정의하였다.

또한 McCulloch과 Pitts는 뉴런으로 연결된 네트워크에 학습(learning)의 개념이 필요함을 주장하였고, 그리하여 1949년 Hebb는 뉴런 간의 연결 정도를 변화시킬 수 있는 학습 규칙을 제안하여 “Hebb의 학습 규칙(Hebbian learning rule)”이라 정의하기도 하였다.

McCulloch과 Pitts의 주장은 과거 심리학자나 철학자들의 전유물이었던 인간의 사고 과정을 최초로 연결망을 통해 모델화했다는 점에서 인공지능 역사상 매우 의의가 크다고 본다.

1950년대 초반 Channon과 Turing은 폰 노이만형 컴퓨터에서 사용 가능한 체스 프로그램을 개발하였다. 이 무렵 프린스턴대학교 수학과 대학원생이었던 Minsky와 Edmond는 신경회로망 컴퓨터(SNARC)를 최초로 개발하는 데 성공하였다. SNARC는 3,000여 개의 진공관과 40개의 뉴런으로 구성된 시스템이었다. 이때 Minsky의 스승은 이 컴퓨터에 대해 회의적이었으나 폰 노이만은 매우 진보적이며 언젠가는 매우 유용할 것이라며 칭찬을 아끼지 않았다고 한다. 그러나 1970년대에 와서 Minsky는 신경회로망의 문제점을 신랄하게 비판하기도 하였다.

프린스턴대학교는 인공지능에 있어서 또 하나의 거장인 McCarthy의 모교이기도 한데, 그는 졸업 후 다트마우스대학으로 옮겨 Minsky, Shannon, Rochester 등과 오토마타 이론, 신경회로망, 지능에 관한 워크숍을 가졌다. 이때 Carnegie Tech에 있던 Nowell과 Simon은 자신들이 개발한 추론 프로그램인 Logic Theorist(LT)를 선보였는데, 비수치적으로 사고하는 컴퓨터 프로그램이라고 소개하였다. 이 프로그램은 여러 방송 매체를 통해 소개되기도 하였다.

이 다트마우스 워크숍 이후 인공지능에서는 이렇다 할 별다른 성과가 없었으나 후에 인공지능의 여러 분야를 도입하게 되는 직접적인 계기가 되어, 미국의 MIT, CMU, Stanford, IBM 등에서 계속적으로 연구하게 되었으며, McCarthy의 주장대로 ‘인공지능’이란 용어를 최초로 사용하게 된 유명한 워크숍이 되었다.

 

제2기 : 초기 관심기(1952~1965)

 

인공지능의 제2기에서는 컴퓨터가 간단한 계산 능력을 갖출 때였으므로 제한적이나마 성공적인 시기였다.

Nowell과 Simon의 연구는 GPS(general problem solver)라는 문제풀이 시스템과 함께 성공을 거두었다. 이는 제1기의 LT와는 달리 인간의 문제 해결 과정을 모델화한 프로그램이었다. 즉, 제한된 퍼즐 클래스를 다룸으로써 달성하고자 하는 목표에 비교적 쉽게 도달할 수 있었다. GPS는 인간과 같은 사고 시스템이라는 인공지능의 첫 번째 목표를 달성하고자 하는 최초의 프로그램이 되었다. 이러한 인공지능과 인지과학적인 접근 방법과의 융합 연구는 Carnegie Mellon university에서 시작되어 오늘날에도 생물학, 언어학, 심리학, 컴퓨터 등이 함께 연구하는 인지과학의 근간이 되고 있다.

 

McCarthy는 1958년 다트마우스에서 MIT로 옮겨가면서 중요한 3가지 업적을 남겼다.

 

첫째, 인공지능 프로그램 언어의 대표격인 LISP(list programming)를 개발했는데, 이는 현존하는 언어 중 두 번째로 오래된 언어가 되었다.

 

둘째, 시분할 시스템(time-sharing)을 도입하였다. 비싼 컴퓨터의 사용료가 계속적으로 문제가 되었기 때문이다.

 

셋째, 1958년에 란 논문을 발표하면서 Advice Taker라는 최초의 완전한 인공지능 프로그램을 개발하게 되었다. 이 프로그램은 지식 표현 및 추론의 중요 원리를 모두 포함하고 있으며, 지식(knowledge)은 문제 해결을 위해 탐색(search) 과정에서 사용된다. McCarthy와 Minsky는 수년 동안 상당히 밀접하게 연구한 학자들인데, McCarthy가 형식 논리에서의 지식 표현과 추론에 관심을 둔다면, Minsky는 반 논리적인 관점에서 프로그램이 점차 개발되는 것에 더 관심을 두었다.

 

Minsky는 IQ 테스트와 유사한 기하학적인 도형 찾기 문제와 블록 세계(blocks world) 문제 등과 같은 마이크로 세계(microworlds)의 문제 해결을 위해 지능적으로 해결하는데 관심을 갖고 있었다.

블록 세계 문제는 매우 유명한 마이크로 세계 문제인데, 테이블에 놓인 블록들을 한 번에 하나의 블록만을 움직일 수 있다는 원칙에 따라 재배열하는 문제이다.

이 블록세계 문제는 1971년 Huffman의 비전 프로젝트, 1975년 Waltz의 전파 규칙, 1970년 Winston의 학습 이론, 1972년 Winograd의 자연어 처리 이해, 1974년 fahlman의 계획 등에 영향을 미치게 되었다.

초기 McCulloch와 Pitts 신경회로망 모델은 매우 각광을 받았다. 그 후 1963년 Winograd와 Cowan은 신경회로망의 각 개념을 표현하기 위한 요소의 수를 생각해 내었고, 1962년 Widrow는 Hebb의 학습 규칙을 개선하여 에이다라인(Adaline)이란 신경회로망을 제안하였으며, 1962년 Rosenblatt는 학습 알고리듬이 입력과 일치하는 해당 출력을 산출하기 위해 뉴런 간의 연결 강도를 조절하여 수렴한다는 유명한 퍼셉트론 수렴 이론(perceptron convergence theorem)을 발표하여 주목을 받았다.

 

제3기 : 침체기(1966~1974)

 

초기 태동기에서부터 계속적으로 발전해 오던 인공지능은 이 시기에 여러 가지 난관에 봉착하여 다소나마 침체기를 맞이하였다.

첫째, 초기 인공지능 프로그램에는 주제에 관해 지식이 거의 없기 때문에 단순한 시냅스 조작만으로 정보가 전달된다는 점이다.

둘째, 인공지능이 해결하고자 하는 문제들이 매우 어렵다는 점이다. 초기 인공지능 프로그램은 문제에 관해 기본 사실만을 표현하여 단계적으로 해결 과정을 나타내는 것에 집중하였다. 따라서 간단한 프로그램은 해결할 수 있었으나 복잡한 인공지능 프로그램은 해결할 수 없었는데, 이 당시에는 단순히 좀 더 나은 컴퓨터 기계나 메모리가 확보되면 가능하리라고 낙관하였다. 그러나 좀 지나면서 한 프로그램이 원리적으로 한 해결책을 발견할 수 있다는 것은 실제로 해결책을 발견하기에 필요한 메커니즘을 이 프로그램이 포함해야 함을 의미하지는 않는다는 것을 알게 되었다. 예를 들면, 제3장에서 설명할 유전 알고리듬은 스스로 알아서 순종만을 교배하여 다음 세대에 생존 가능성이 높은 것만을 계속적으로 생산해 내는 인공지능 프로그램이다.

셋째, 지능화된 행동을 생성하기 위해 사용되는 기본 구조상에서의 어떤 제한 때문이다. 예를 들면, 1969년 Minsky와 Papert의 란 책에서 지적했듯이 불가능한 사실을 학습하려고 한다는 점이 문제가 되어 신경회로망이 한동안 침체기를 맞이하게 되었다. 그러나 그 후 1980년대 다층 신경회로망이 도입되어 이 문제를 해결함으로써 다시 활기를 띠게 되었다.

 

제4기 : 활성기(1975~1988)

 

인공지능 연구의 처음 10년 간 사용되던 문제 해결 방법은 일반적인 범용 탐색 방법(general purpose search mechanism)이었는데, 도메인에 대한 지식이 부족했기 때문에 복잡한 도메인에 대해서는 성능이 떨어질 수밖에 없다. 이를 불충분한 방법(weak method)이라고도 부른다. 그러므로 복잡한 문제를 해결하기 위해서는 거대한 지식(knowledge)을 사용하여 미리 답을 알아야만 효율적이다. 이 시기에 발표된 Buchanan의 DENDRAL 프로그램은 이런 접근 방법의 한 예이다. 이 프로그램의 입력은 C6H13NO2와 같은 분자식의 요소이며, 출력은 여러 가지 분자 덩어리 스펙트럼이다. 예를 들어, 분자 덩어리 스펙트럼은 CH3와 일치하는 m=15에서 최고점에 도달할 것이다. DENDRAL이 케톤(c=0) 그룹을 인식하게 하려면 다음의 규칙을 이용한다. 아래 수식 표현은 참조하지 마세요.

 

IF there are two peaks at x1 and x2 such that x1 + x2 =M+28(M is the mass of the whole molecule); x1 - 28 is a high peak; x2 - 28 is a high peak; At least one of x1 and x2 is high;

THEN there is a ketonr subgroup;

또한 1980년대에는 전문가 시스템이 등장하여 매우 각광을 받았다. 1982년에 Digital Equipment Corporation에서 시작한 R1이라는 전문가 시스템이 상용화되어 한 해에 약 40달러 정도를 절감할 수 있었다고 한다.

 

제5기 : 융성기(1989~현재)

 

최근에는 신경회로망이 다시 융성하기 시작하여 여러 분야에 신경회로망을 응용하려는 경향을 보이고 있다. 예를 들면 신경회로망을 네트워크에 적용하여 문제 해결을 하려는 연구가 진행 중에 있다. 즉, 네트워크의 통신량을 미리 예측하여 통신 부하를 최소화하여 효율적으로 운영하려는 연구가 진행 중이다. 또한 에이전트 이론이 1990년대에 등장하여 인공지능의 주류를 형성하고 있다. 최근에는 에이전트 이론에 지능이 부여된 지능적인 에이전트에 관한 연구들이 상당히 많이 진행되고 있다.

이와 같이 1990년대 인공지능의 특징은 인공지능이 독립적으로 연구 발전되는 것이 아니라 다른 분야와의 융합을 통해 상호 보완적인 방향으로 발전되고 있다는 점이다.

 

 

의식을 업로드하고 다운로드하는 게 가능하다면 몸은 무엇인지? 

 

 

 

 

 

더욱 좋은 정보를 제공하겠습니다.~ ^^

이 글 공유하기

facebook twitter kakaoTalk kakaostory naver band