본문 바로가기

개발자/인공지능과 인간

AI의 위협과 위험성, 예방조치 - Sam Altman

반응형

 

샘 알트먼 오픈 AI 최고경영자(CEO)는 미국 정부에 AI 감사 기관을 둬야 한다고 주장했다. 해당 기관이 AI 기업 설립, 기술 개발에 별도 승인 절차를 실행해야 한다는 제안이다. BBC 등 다수 외신은 샘 알트먼 CEO가 미국 상원위원회의에 출석해 AI 기술 위험성에 대해 경고하면서 이런 방안을 제시했다고 16일(현지시간) 보도했다. 

 

AI는 생각보다 더 위험합니다. 최근 ChatGPT의 설립자인 샘 알트먼은 AI 규제에 대해 이야기했습니다. AI의 위험성과 위험성, 그리고 예방 조치에 대해 설명했습니다. 녹취록은 4시간 38분 분량입니다. 다음은 여러분이 알아야 할 가장 중요한 7가지 사항입니다: 

 

1. 개회 선언문

 

AI는 사람들의 삶의 거의 모든 측면을 개선할 수 있는 잠재력을 가지고 있지만, 동시에 심각한 위험을 초래하기도 합니다.

 

2. 잘못된 정보 위험

 

기업은 모델을 출시하기 전에 테스트 결과를 검토해야 합니다. 또한 모델의 정확성과 신뢰성을 보장하기 위해 독립적인 감사가 필요합니다.

 

3. 직업 위험

 

미래의 일자리는 오늘날의 일자리보다 훨씬 더 나아질 것입니다. 새로운 기술은 새로운 기회를 창출할 것입니다. 오늘날의 일자리는 AI에 의해 향상될 것입니다.

 

4. 샘의 최악의 두려움

 

"제가 가장 두려워하는 것은 우리 업계와 기술이 세상에 심각한 해를 끼치는 것입니다."

 

5. 선거 관련 허위 정보

 

AI가 선거에 미치는 영향에 대한 우려가 있습니다. 업계와 정부는 이 문제를 해결하기 위해 함께 노력해야 합니다. AI가 생성한 트윗을 탐지하기 위한 정책과 모니터링이 마련되어 있습니다.

 

6. AI를 규제하는 최선의 방법

 

- AI 모델 라이선스 및 규제를 위한 새로운 기관을 설립하세요. - 위험한 기능을 식별하고 완화하는 AI 모델에 대한 안전 표준을 만듭니다. - 안전 표준 준수를 보장하기 위해 전문가의 독립적인 감사를 요구합니다.

 

7. LLM의 언어 포용성

 

다양한 언어로 모델을 제공하는 것이 중요합니다. "우리는 아이슬란드와 협력했으며 다른 국가와도 협력하여 자원이 부족한 언어로도 모델을 제공할 것입니다."  

 

 

 

OpenAI CEO Sam Altman 의회에서 4시간 동안 증언

 

반응형

더욱 좋은 정보를 제공하겠습니다.~ ^^