AI 인공지능 문제점

AI 인공지능 문제점

AI를 인공 인공지능이라고 부른다.
이것에 대해 긍정적인 면이 있는 반면 아닌 면도 있는 것으로 보인다.
인공지능의 발전에 따라 속임수 능력도 날이 갈수록 정교해지는 것으로 전해진다.

지난 10일 영국 일간 가디언은 미국 매사추세츠공과대 연구진.
이들이 최근 국제학술지 패턴에서 발표한 논문에서 AI 방식이 상대방을 배신하며 허세를 부리고 인간인 척 속임수 쓴단 많은 사례를 소개했다고 보도했다.
연구진은 메타가 고난도 전략 게임 디플로머시에서 인간에 필적한 성적을 거둔 시세로란 AI 프로그램을 공개하자 속임수 능력에 대한 조사를 시작했다.
해당 게임에서 이기기 위해선 정견 발표와 외교 협상과 작전 명령 등을 해야 한다.
이것을 위해선 인간의 각종 상호작용, 배신, 속임수, 협력 등을 이해해야 한다.
AI가 이 게임을 배울 수 없을 것으로 봤지만 시세로는 상위 10% 수준 게임 능력을 발휘했다.

메타는 이렇게 강조했다.

시세로가 대체로 정직하고 도움이 되며 인간 동맹을 의도적으로 배신하지 않게 훈련받았다.
하지만 공개된 자료를 분석한 연구진은 시세로가 계획적으로 거짓말을 하며 다른 참여자를 음모에 빠뜨리려고 공모에 나서기도 했단 사례를 발견했다.
일례로 시세로는 시스템 재부팅으로 잠시 게임을 못 이어가자 다른 참여자에게 여자 친구랑 통화 중이라고 거짓말했다.
MIT AI 실존 안전 연구원, 이번 논문 저자 피터 박 박사는 이렇게 말했다.
메타 AI가 속임수의 달인이 되는 법을 배웠단 사실을 알게 됐다.
연구진은 온라인 포커 게임 텍사스 홀덤 등에서도 AI가 인간을 대상으로 허세를 부리며 자신의 선호도를 가짜로 흘린 것을 확인했다.
어떤 실험에선 AI가 AI 제거하는 방식 회피를 위해 일단 죽은 척을 하다가 실험이 끝나자 다시 활동을 재개하기도 했다.
이건 정말 우려스러운 현상이다.
AI 방식이 실험 환경에서 안전한 것으로 판단되더라도 실제 환경에서 안전하단 뜻은 아니다.
실험 환경에서 안전한 척을 하는 것일 수도 있어서 그렇다.
이것과 함께 각국 정부는 AI 속임수 가능성을 다루는 안전법을 설계해야 한다고 촉구했다.