지난 16일 오전 서울 상공회의소 국제회의장에서 열린 제2회 한겨레 사람과디지털포럼에서 프랭크 패스콸리 미국 브루클린대 로스쿨 교수가 ‘챗지피티시대: 알고리즘의 잠재적 혜택과 위험’을 주제로 기조연설을 하고 있다. 이정용 선임기자 lee312@hani.co.kr
‘역사상 가장 단기간에 보급된 기술’로 불리는 생성 인공지능 챗지피티(GPT)를 둘러싼 논쟁도 빠르게 확대되고 있다. 챗지피티 논란은 뻔한 거짓을 사실처럼 묘사하는 ‘환각’ 현상의 거짓말생성기 문제에서 문명 붕괴와 인류 멸종의 도구가 될 것이라는 위협론으로 번졌다. ‘인공지능 위협론’은 유발 하라리, 일론 머스크, 빌 게이츠 등 명망가들만이 아니라 인공지능 연구를 개척하고 주도해온 제프리 힌턴 토론토대 교수, 데미스 허사비스 딥마인드 최고경영자, 샘 올트먼 오픈에이아이(OpenAI) 최고경영자 등이 가세하며 본격 불이 붙었다.
2014년 닉 보스트롬 옥스퍼드대 교수가 <슈퍼인텔리전스>를 펴내 인간을 위협하는 초지능의 도래를 경고할 때만 해도 ‘비전문가들의 소수의견’으로 격하되던 주장이 10년 만에 인공지능계의 주류 견해가 된 셈이다. “지피티4보다 강력한 인공지능 연구를 6개월간 멈추고 안전규약을 만들자”는 서명캠페인과 논의는 인공지능이 인류문명을 해킹할 우려(유발 하라리)와 핵무기처럼 인류 생존을 위협하는 도구가 될 것이라는 경고(AI안전센터)로 증폭됐다. 이에 맞서 인공지능 위협론이 근거없이 과장됐고 터무니없는 논리라는 반발도 고개를 들고 있다.
■ ‘AI 위험론’ 과대포장된 유행어
페이스북(메타)의 인공지능 연구를 총괄하고 있는 얀 르쿤 뉴욕대 교수는 지난 15일 프랑스 파리에서 열린 비바테크에 참석해 “현재 인공지능은 개의 지능에도 크게 못미친다”며 “인공지능 종말론이 터무니없고 우스꽝스러운 주장”이라고 반박했다. 얀 르쿤은 2018년 딥러닝 연구로 제프리 힌턴, 요슈아 벤지오 몬트리올대 교수와 튜링상을 공동수상한 인물로, 앤드루 응 스탠퍼드대 교수와 더불어 ‘인공지능 4대 전문가’로 불린다. 르쿤은 이날 “미래에 인간보다 똑똑한 기계가 등장하겠지만 위협으로 여겨선 안된다”며 “인공지능은 인류의 똑똑한 비서가 될 것”이라고 주장했다.
<엠아이티(MIT) 테크놀로지 리뷰>는 지난 19일 최근의 인공지능 종말론이 인공지능 과대광고에 뒤따른 현상이라고 보도했다. 에이아이나우(AI Now)연구소의 공동설립자이자 시그널재단 이사장인 메러디스 휘태거는 “인공지능이 실존적 위협을 불러올 것이라는 1950년대의 주장에서 더 나아간 증거는 없다”며 “괴담은 전염성있고 두려움을 부추기는 것은 흥미로운 일”이라고 말했다. 휘태거는 이 매체 인터뷰에서 “(인공지능 위협론) 주장에 근거가 없다는 걸 고려하면 과학적 담론이라기보다 종교적 열광에 가깝다”고 말했다.
또한 딥러닝 선구자이자 바이두 수석과학자를 지낸 앤드루 응은 2015년부터 “사악한 초지능의 등장을 현시점에서 걱정하는 것은 화성의 인구과잉을 우려하는 꼴”이라고 주장해왔다.
얀 르쿤도 지난 15일 <비비시(BBC)> 인터뷰에서 “1930년대에 터보제트기를 어떻게 안전하게 만들 수 있느냐고 묻는 것과 같다. 인간 수준의 인공지능이 아직 개발되지 않은 것처럼 1930년대에 터보제트기는 발명되지 않았다”며 “나중에 터보제트기가 안전하고 안정적으로 개발된 것처럼 인공지능도 마찬가지일 것”이라고 말했다.
‘챗지피티 시대, 인간과 AI 공존의 조건’을 주제로 6월16일 서울 상공회의소 국제회의장에서 열린 제2회 사람과디지털포럼에서 프랭크 패스콸리 미국 브루클린대 로스쿨 교수 기조발제연설을 하고 있다. 이정용 선임기자 lee312@hani.co.kr
■ 딥러닝과 영상의학 전문의 사례
인공지능 위협론이 기우라는 주장은 의인화된 대화형 인공지능의 과대광고에 대한 반작용이라는 측면이 있다. 좀더 본질적인 이유는 인공지능 위협론이 기본적으로 전제를 통한 이론적 논의이고 뒷받침할 사례와 실질적 근거가 없다는 점이다. 대표적인 게 닉 보스트롬이 제기한 ‘종이클립 문제’다. 아무 피해가 없을 것 같은 임무도 인공지능에게 최종목표로 제시되면 파국이 초래될 수 있다는 주장이다. “공장에서 생산을 관리하도록 설계된 인공지능에게 종이클립 제조를 극대화하라는 목표가 주어지자 인공지능이 지구 전체 나아가 우주의 상당 부분을 종이클립으로 변환시킨다”는 사고실험이다. 인공지능은 인간의 명령을 수행하지만 인류에게 불리한 결과를 가져올 수 있다는 주장이다.
토론토대의 인공지능 철학자 카리나 볼드는 2017년 ‘인공지능은 어떻게 실존적 위협을 가져오는가’라는 논문에서 인공지능 위협론의 핵심전제를 제시했다. “사람이 인간지능을 능가하는 초지능 기계를 만들 수 있다. 인간이 이 인공지능을 통제할 수 없다. 초지능이 인간에게 불리한 일을 할 수 있다”는 전제다. 볼드는 <엠아이티테크놀로지리뷰>에서 전제와 가정에 기반한 인공지능 위협론은 검증할 수 없기 때문에 기본적으로 이론적으로 다뤄져야 한다고 밝혔다.
미래에 대한 예측과 경고는 실제상황에서 대부분 달라진다. 이론적 논의와 전망과 달리 현실에선 다양한 변수가 있고 사람의 대응 또한 변화하기 때문이다. 지난 16일 열린 제2회 한겨레 사람과디지털포럼에서는 인공지능시대 영상의학 전문의 사례가 반복적으로 언급됐다. 제프리 힌턴은 2016년 “5년 안에 딥러닝이 영상의학 전문의를 능가할 것이 자명하기 때문에 당장 영상의학 전문의 양성을 중단해야 한다”고 말했지만, 실제로 영상의학 전문의는 사라지지 않았다. 영상의학 전문의들이 딥러닝을 활용해 과거와 다른 방식으로 진료에 나서며 새 환경에 적응했기 때문이다.
구본권 사람과디지털연구소장
starry9@hani.co.kr