본문 바로가기

광고

광고닫기

광고

본문

광고

국제 국제일반

프랑켄슈타인 괴물의 부활…AI 창조주 인류는 자멸하나

등록 2021-04-10 09:06수정 2021-04-10 09:10

[토요판] 커버스토리
인공지능 무기 전쟁

미국 의회 자문위 최종 보고서
“적 능가하는 무기시스템 구축”
“AI 무기 개발이 도덕적 의무”
무한 군비 경쟁 본격화 선언문
냉전의 핵공포 버금가는 위기

푸틴 “AI 지도국이 세계 지배”
시진핑 “군사지능화 가속해야”
화약→핵무기→AI 3차 무기혁명
기계 스스로 판단해 살상 능력
“미래엔 AI가 지휘관도 대체”
2019년 3월 독일 베를린 브란덴부르크문 앞에서 ‘스톱 킬러 로봇 캠페인’ 활동가들이 독일 정부에 킬러 로봇 금지를 촉구하는 집회를 하고 있다. EPA 연합뉴스
2019년 3월 독일 베를린 브란덴부르크문 앞에서 ‘스톱 킬러 로봇 캠페인’ 활동가들이 독일 정부에 킬러 로봇 금지를 촉구하는 집회를 하고 있다. EPA 연합뉴스

불길한 예언일수록 강박을 부른다. 사람들은 요한계시록과 노스트라다무스가 제시한 앞날을 기억해왔다. 뭐든 예언 실현의 징조로 볼 만한 것을 찾으려 했지만 대개 허무맹랑했다. 1818년 출간돼 묵시록적 상상력의 모티브로 인기를 끈 소설 <프랑켄슈타인>은 다른 듯하다. 소설 속 상황과 대화는 인공지능(AI)의 군사화에 속도가 붙은 지금 상황에 대입해도 손색없을 정도다. 인간이 만든 존재가 창조주에게 등을 돌려 인류를 파괴할 수 있다고 걱정하는 ‘프랑켄슈타인 신드롬’이 허투루 들리지 않게 됐다. 프랑켄슈타인은 사고하고 추론하는 존재라면 창조주를 배신할 수 있음을 뒤늦게 깨달았다. 피조물한테 노예라는 조롱을 받으며 만들지 말아야 할 것을 만든 대가를 치른다. “추악한 숙적을 창조하도록 황황히 나를 몰아간 미친 열정”에 대한 프랑켄슈타인의 탄식을 되새겨야 할 때가 아닐까?
소설 <프랑켄슈타인>의 괴물은 인간과 비슷했고 인간이 되기를 소망했다. 괴물은 산속 오두막 가족의 일상을 훔쳐보며 언어와 인간 사회를 배웠다. 어엿한 인간이 되려는 꿈이 좌절되자 누구도 통제할 수 없는 힘으로 창조주에게 처절하게 복수한다. 괴물은 자신을 만든 프랑켄슈타인을 “저주받은 창조자”로 부르며 “내 모습은 당신의 더러운 투영이고, 닮았기에 더욱 끔찍스럽다”고 욕을 퍼붓는다.

작가의 상상력은 종종 후세를 놀라게 만든다. 영국의 메리 셸리가 200여년 전 쓴 이 책은 21세기 인공지능(AI) 시대에 심상찮은 예지력의 산물로 평가받는다. 기본적으로 인간이 만든 괴물이 사고력과 추리력을 갖고 스스로 인간화를 추구한다는 설정이 그렇다. 프랑켄슈타인의 괴물이 애초 바란 것처럼 인공지능이 사랑과 연민을 가진 존재로 성장한다면 작가의 상상은 결국 유쾌하게 빗나갈지도 모른다. 하지만 변심한 그 괴물처럼 “전 인류에 대한 영원한 증오와 복수”를 다짐한다면 얘기가 다르다. 인공지능은 프랑켄슈타인이 자기 창조물을 지칭한 “살인 기계”로 길러지고 있다. 미국 의회가 설치한 ‘인공지능 국가안보 위원회’가 지난달 2일 낸 보고서는 인류의 앞날에 먹구름을 예고한다.

1931년 제작된 영화 &lt;프랑켄슈타인&gt; 포스터.
1931년 제작된 영화 <프랑켄슈타인> 포스터.

타오르는 AI 군비 경쟁

전 구글 최고경영자 에릭 슈밋과 전 미국 국방부 부장관 로버트 워크가 이끈 인공지능 국가안보위원회는 2019년부터 인공지능 무기의 가능성과 경쟁 문제를 검토해 750쪽짜리 최종 보고서를 냈다. 위원회는 아마존 차기 최고경영자 앤디 재시, 오러클 최고경영자 새프라 캐츠, 마이크로소프트 최고과학책임자 에릭 호비츠, 구글 클라우드 인공지능 책임자 앤드루 무어 등 굴지의 정보기술(IT) 업계 인사들을 망라한 조직이다.

보고서가 상정한 최대 위협은 역시 중국이다. 인공지능이 패권 추구에 사용될 것이라며, 2030년까지 이 분야에서 세계를 선도하겠다는 중국 정부의 계획에 주목했다. 미국은 중국에 ‘인공지능 슈퍼파워’ 지위를 곧 빼앗길 것으로 보이는 “엄중한 현실”에 직면했다고 했다. 미군 고위 지휘관들은 가령 중국군이 미국 해군을 공격하는 스워밍 드론 시스템(벌떼처럼 많은 드론이 협업하며 동시에 공격하는 것)을 완비한다면 미군의 기술적 우위는 사라진다는 우려를 나타냈다고 밝혔다. “만약 적들을 능가하는 신개념 인공지능 시스템을 갖추지 못한다면 우리 군은 전투에서 열세에 놓이고 마비될 것”이라고 경고했다. 따라서 위원회는 인공지능 연구·개발(R&D) 예산을 올해 15억달러에서 내년에 20억달러로 늘린 뒤 해마다 배증해 2026년에는 320억달러(약 35조7500억원)로 대폭 증액하라고 조 바이든 행정부에 권고했다. 또 △인공지능 분야 대통령 보좌기구 설치 △중국의 두뇌 유출 유도와 미국의 기술 발전을 위한 이민법 개정 △공무원 인공지능 교육 대학 설치 △정보기관의 신기술 도입 촉진을 요구했다. 슈밋은 보고서 발표에 앞서 상원 군사위원회에 출석해 “우리는 차를 만들듯 미사일을 만들어야 한다”고 했다. 민간에서 자율주행차를 만들듯 정보기술의 군사화에 총력을 기울여야 한다는 뜻이다.

인공지능 군사화 촉진만큼이나 중요한 결론은 인공지능 무기 금지 요구를 거부하라는 것이다. 위원회는 중국이나 러시아는 금지 협약에 조인하더라도 이를 지키지 않을 것이라는 이유를 댔다. “인공지능을 받아들이지 않고 인공지능 능력을 갖춘 적들에 맞선다는 것은 재앙으로 초대되는 것”이라고 강조했다.

국제법적, 도덕적 논란에 대응하는 논리도 들어 있다. 보고서는 인공지능 무기가 적절한 시험을 거쳐 인간 지휘관의 조종을 받으면 국제법을 거스를 소지가 없다고 주장했다. 위원회 부위원장인 워크 전 부장관은 인공지능은 인간보다 표적을 오인하는 실수를 덜 저지를 것이라며 “이런 추정에 따르는 게 도덕적 의무”라는 ‘역설적’ 주장까지 했다.

미국 인공지능 국가안보위원회 위원장인 에릭 슈밋 전 구글 최고경영자가 지난달 12일 하원 군사위원회 소위원회에 나와 인공지능 무기에 관한 최종 보고서를 들어 보이고 있다. 영상 갈무리
미국 인공지능 국가안보위원회 위원장인 에릭 슈밋 전 구글 최고경영자가 지난달 12일 하원 군사위원회 소위원회에 나와 인공지능 무기에 관한 최종 보고서를 들어 보이고 있다. 영상 갈무리

이 발표에 자율살상무기 반대 국제 네트워크인 ‘스톱 킬러 로봇 캠페인’의 대변인 노엘 샤키(영국 셰필드대 교수)는 “누구를 죽일지를 스스로 결정하는 인공지능 무기 확산으로 이어질 수 있는 충격적이고 무서운 보고서”라는 반응을 보였다. 그는 “세계의 뛰어난 인공지능 과학자들은 인공지능 무기에 대해 경고해왔다”며 “이 보고서는 국제법의 중대한 위반으로 이어질 것”이라고 했다.

반대 여론에도 불구하고 미국 정부가 거침없이 나오는 데는 ‘기술 냉전’이라는 배경도 있다. 이번 보고서는 인공지능 무기의 잠재력을 뒷받침하는 컴퓨터 칩 경쟁에서도 중국을 압도해야 한다고 주장했다. “잠재적 적국이 장기적으로 미국의 반도체 능력을 앞서거나 최첨단 칩에 대한 미국의 접근을 완전히 차단하면 그 나라는 전쟁의 모든 영역에서 우위를 점하게 된다”는 것이다. 보고서는 미국은 반도체 제조 능력에서 중국을 적어도 두 세대 앞서야 한다고 했다. 최근 제이크 설리번 백악관 국가안보보좌관이 반도체 업체 경영자들을 불러 반도체 공급 차질 문제를 논의하겠다고 한 것도 이를 안보 전략 차원으로 접근하기 때문이라는 분석이 나온 바 있다. <워싱턴 포스트>는 바이든 행정부가 인민해방군과 연계된 중국 반도체 업체들에 대한 제재를 준비 중이라고 7일 보도했다.

수십년간 정보혁명을 주도한 미국은 기술 수준, 인력, 경험 등이 주요 자산이다. 매일 세계 어느 구석에선가는 전투를 하는 미군의 인공지능 적용 실험도 중국이 따라오기 어려운 대목이다. 하지만 20세기를 ‘미국의 세기’로 만든 기술 우위를 뒷받침한 연구·개발 투자는 상대적으로 퇴조했다. 세계 연구·개발비 총액에서 중국의 비중은 2000년에 5%를 밑돌았으나 2020년에 23%로 커졌다. 2025년에는 미국을 능가할 것이라는 전망이 나온다. 보고서에는 이런 초조함이 녹아 있다.

3차 무기혁명

블라디미르 푸틴 러시아 대통령은 2017년 인공지능 무기 개발의 중요성을 강조하며 “인공지능 선도국이 세계의 지배자가 된다”고 했다. 최고의 군사적 이상은 적이 도전할 엄두를 못 낼 정도의 무기체계를 갖추는 것인데, 푸틴은 인공지능이 그 답이라고 한 것이다. 비용과 인명 손실을 최소화하는 것도 매우 중요한 군사적 과제다. 정보기술 발전은 이런 맥락들 때문에 주목받아왔다. 인터넷, 지피에스(GPS), 터치스크린 등이 애초 군사적 목적으로 개발된 점은 정보혁명이 무기혁명이라는 두 얼굴을 지님을 보여준다. 군사 강국들은 20여년 전부터 인공지능으로 눈길을 돌렸다. 방대한 데이터를 재빨리 분석해 신속히 판단하고, 인간의 착오 가능성을 제거하고, 위험한 임무를 기계에 떠넘길 수 있기 때문이다. 인공지능 무기는 화약과 핵무기에 이은 3차 무기혁명으로 일컬어진다.

미국 해군의 시험용 무인전투기 X-47B가 2013년 5월 항공모함 조지 부시호에서 이륙하고 있다. 항공모함 이착륙에 최초로 성공한 무인전투기 X-47B는 원격 조종사가 조이스틱으로 조종하는 기존 무인기와 다르게 목적지를 키보드 입력으로 설정해 운용할 정도로 첨단화됐다. 이런 무인기에 인공지능을 탑재하는 사업이 진행되고 있다. EPA 연합뉴스
미국 해군의 시험용 무인전투기 X-47B가 2013년 5월 항공모함 조지 부시호에서 이륙하고 있다. 항공모함 이착륙에 최초로 성공한 무인전투기 X-47B는 원격 조종사가 조이스틱으로 조종하는 기존 무인기와 다르게 목적지를 키보드 입력으로 설정해 운용할 정도로 첨단화됐다. 이런 무인기에 인공지능을 탑재하는 사업이 진행되고 있다. EPA 연합뉴스

무인기(드론) 경쟁으로 알 수 있듯 각국은 무기 자동화와 원격화를 정력적으로 추진해왔다. 어디까지가 순전한 자동화 무기이고 무엇부터 인공지능 무기인지 구분이 쉽지만은 않다. 데이터와 경험을 기반으로 스스로 추리하며 기능을 끌어올리고, 인간처럼 주체적으로 판단하고 행동하는 시스템을 접목하는 게 인공지능 무기화라고 대략 말할 수 있다. 아직 초기 단계인 인공지능 무기화는 공격 무기, 정보, 정찰, 병참, 사이버 보안, 지휘·통제 등 갖은 분야에서 실험과 개발이 이어지고 있다. 인공지능 무기끼리 통신하고 합동작전을 하는 네트워크 구축 시도도 한다. 특히 인간의 개입 없이 표적을 고르고 공격하는 자율살상무기라는 개념에 우려가 집중된다. 이를 ‘킬러 로봇’이라고도 한다.

기존 첨단 자동화 무기와 인공지능 무기의 개념 차이는 두 암살 사건으로 비교해볼 수도 있다. 미군은 지난해 1월 이라크 바드다드 공항에서 이란 혁명수비대의 쿠드스 부대 사령관 가셈 솔레이마니를 드론으로 살해했다. 인적 정보 등으로 동선을 쫓던 중 공항 상공에 띄운 드론 카메라로 움직이는 무리의 행동거지를 관찰하고 그의 위치를 파악한 것으로 전해졌다. 1만㎞ 넘게 떨어진 미국 네바다주 공군기지에서 드론의 미사일 발사 버튼을 누른 것으로 알려졌다. 이는 고도로 첨단화된 작전이지만 인공지능이 사용되지는 않았다.

그런데 지난해 11월 이란의 저명한 핵과학자 모흐센 파흐리자데 암살 때 인공지능 무기가 사용됐다고 이란 혁명수비대가 주장했다. 픽업트럭에 설치한 무인 기관총이 승용차 안에서 25㎝밖에 떨어져 있지 않은 그의 아내는 놔두고 파흐리자데의 머리만 노린 것은 인공지능과 안면인식 기술이 사용됐기 때문이라는 주장이다. 이란은 이스라엘을 공격 주체로 지목했지만, 이스라엘은 이를 인정하지 않았다. 픽업트럭이 폭발했기에 인공지능 무기가 동원됐는지 객관적으로 확인되지는 않았다. 하지만 이란 쪽 설명이 맞다면 인공지능 무기의 ‘가능성’을 보여준 셈이다.

미국, 중국, 러시아, 영국, 이스라엘이 인공지능 군사화에 열심인 국가들이다. 미국이 가장 앞에서 거액을 투자하며 경쟁을 주도한다. 미군은 이미 이라크와 시리아 군사작전에서 인공지능을 활용해왔다. 2018년 미국 국방부가 만든 합동인공지능센터가 인공지능 도입을 총괄한다. 인공지능은 결국 인간을 대체하는 수단이므로 무인 전투기, 무인 전투차량, 무인 함정, 무인 잠수정 등이 활발한 실험과 개발 대상이다. 알파고가 이세돌을 꺾은 것처럼, 나중에는 방대한 공중전 데이터를 학습한 무인 전투기가 인간 조종사를 노릴 수도 있다. 미국 국방부는 개별 병사 작전을 위해서도 표적 자동 식별 능력 등을 갖춘 스마트 무기를 개발하고 있다. 사람을 자동 탐지해 공격하는 무기는 이미 존재하는데, 인공지능을 이용해 표적 식별력을 끌어올리고 공격 범위를 조절하는 기술이 다듬어지고 있다. 마크 에스퍼 전 미국 국방장관은 지난해 국방부 합동인공지능센터 행사에서 “후방 사무실에서부터 전선까지 인공지능은 전선의 모든 측면을 바꿀 잠재력을 갖고 있다”며 중국에 뒤지면 안 된다고 역설했다.

미국이 집중 견제하는 중국도 앞서가는 국가다. 시진핑 국가주석은 2017년 “갈수록 격렬해지는 군비 경쟁에서 혁신만이 승리할 수 있다”, “군사 지능화를 가속화하고 네트워크 정보 시스템에 기반해 합동작전 능력과 모든 영역의 전투 능력을 향상시켜야 한다”고 촉구했다. 중국 정부가 인공지능 선도국이 되겠다고 밝힌 것도 이맘때다. 중국도 미국처럼 각종 무인 장비에 인공지능을 접목하려 한다. 중국은 정부가 민간기업 영역까지 강한 통제력을 행사하고 자원을 집중 투입할 수 있다. 인공지능 개발에 핵심적인 방대한 데이터를 집적하고 활용할 수 있다는 장점도 있다. 엄청난 데이터를 보유한 중국을 석유가 풍부한 사우디아라비아에 빗대 ‘데이터의 사우디아라비아’라고 부르기도 한다.

2019년 10월 중국 베이징에서 열린 건국 70돌 군사퍼레이드에서 무인기가 운반차량에 실려 가고 있다. 신화 연합뉴스
2019년 10월 중국 베이징에서 열린 건국 70돌 군사퍼레이드에서 무인기가 운반차량에 실려 가고 있다. 신화 연합뉴스

인공지능은 인간이 지닌 물리적, 정신적 한계를 극복할 수 있다는 장점도 있다. 인간 병사는 두려움과 피로 탓에 전투력이 떨어진다. 인공지능은 그런 것들을 모르고, 연민도 느끼지 않고, 단지 효율적으로 최대한의 파괴와 살상만을 추구할 수 있다. 프랑켄슈타인의 괴물도 “난 두려움이 없고, 그렇기에 강력하다”고 했다. 미국 국방부 합동인공지능센터 초대 소장 잭 섀너핸은 2019년 인공지능 국가안보위 콘퍼런스에서 위원장 슈밋과 대담하며 이렇게 예언했다. “우리는 어떤 경우 마이크로초(100만분의 1초) 속도로 인공지능 무기가 전개되는 미래 전쟁의 속도, 혼란, 유혈에 충격을 받을 것이다. 이런 싸움은 어떻게 벌어지나? 그건 알고리즘 대 알고리즘의 싸움이다.”

이렇게 거대한 가능성 때문에 경쟁의 끝을 가늠하기 어렵다. 미국 국방부 산하 국방고등연구계획국은 2018년부터 ‘에이아이 넥스트’ 연구 사업을 하고 있다. 국방고등연구계획국이 ‘제3차 인공지능 물결’이라고 부르는 차세대 인공지능에 대해 스티븐 워커 국장은 “새로운 상황과 환경을 인식하고 그에 적응하는 능력을 통해 기계가 어떻게 인간처럼 추리력을 갖는지” 연구하는 프로그램이라고 설명했다. 인공지능이 무기 성능을 개선하거나 작전을 보조하는 수준을 넘어 지휘관 노릇을 할 것으로 내다보는 이들도 있다. 장기적으로는 전쟁 개시 등 전략적 결정 이외의 전술적 판단과 행동을 인공지능이 도맡을 것이라는 말이다.

핵미사일과 소시지의 악몽

이번 보고서는 1957년 ‘게이서 보고서’의 속편이라 해도 무방하다. 먼저 새 무기체계를 둘러싼 위기의식과 경쟁심을 한껏 자극하기 때문이다. 안보 강화 노력이 상대를 자극해 군비 증강의 악순환을 일으켜 결국 안보가 더욱 위협받는 ‘안보 딜레마’를 내포한 점도 같다. 패권을 다투는 국가들의 경쟁이 세계 평화에 끼칠 암울한 영향도 재연되고 있다. 주적이 소련에서 중국으로, 소재가 핵미사일에서 인공지능으로 바뀌었을 뿐이다.

드와이트 아이젠하워 미국 대통령은 1957년 적의 대륙간탄도미사일(ICBM) 역량을 객관적으로 평가하자며 민간 권위자들에게 보고서 작성을 의뢰했다. 소련이 그해 8월 “세계 어디든 타격할 수 있는” 대륙간탄도미사일 시험에 성공했다고 발표한 직후다. 미국 대중에게 더 충격적이었던 것은 두달 뒤 소련이 최초의 인공위성 스푸트니크 1호를 쏘아올린 것이다. 무기체계를 비롯한 기술에서 소련을 앞서간다고 자부하던 미국인들은 ‘스푸트니크 쇼크’에 빠졌다. 애초 비공개였던 게이서 보고서 내용이 유출되자 2차 충격이 밀려왔다. 이 보고서는 미국의 미사일 능력이 소련에 뒤처졌다며 중·장거리 핵미사일을 대거 배치하고 국방비도 크게 늘리자고 했다. ‘미사일 갭(격차)’ 공포의 시작이었다. 공군, 언론, 정치권이 경쟁적으로 위협을 과장했다. 미국 국방부에서 인공지능 연구를 총괄하는 고등연구계획국이 만들어진 것도 이때다. 1963년께면 소련이 1500기 정도의 대륙간탄도미사일을 보유하리라는 전망이 나왔다.

사실 미국 지도부는 이런 전망이 과장임을 충분히 알았다. 미국의 장거리 미사일 보유량과 타격 능력이 앞선다는 것을 정찰기 수집 정보 등으로 파악하고 있었다. 그러나 사실이 어떻든 공포는 미사일처럼 치솟았다. 대권 도전을 앞둔 존 에프 케네디 상원의원이 미사일 갭이라는 말을 만들어 아이젠하워를 유약하고 무능한 대통령으로 몰아갔다. 아이젠하워가 퇴임하며 ‘군산복합체’라는 말로 불만을 터뜨린 것은 자기 이익을 위해 위기의식을 부풀리는 집단에 질렸기 때문이다. 나중에 밝혀진 바로는, 논란이 한창일 때 대륙간탄도미사일 보유량은 미국이 57기, 소련은 10기였다. 게다가 미국은 몇분 안에 발사가 가능한 미사일을 개발 중이었으나 소련 것은 발사 준비에 몇시간이나 걸려 쉽게 노출될 수 있는 상태였다. 미사일 갭 공포의 폭등에는 허풍쟁이인 니키타 흐루쇼프 소련공산당 서기장도 한몫했다. 흐루쇼프는 가뜩이나 겁먹은 미국인들을 향해 자국 무기 공장이 “미사일을 소시지 뽑듯 만든다”고 큰소리쳤다.

이번 인공지능 국가안보위 보고서는 군산복합체 논란도 되살리고 있다. 위원회 구성원들은 개인 자격으로 참여했지만 인공지능은 그들이 몸담은 기업들의 이해가 크게 걸린 사안이다. 마이크로소프트의 경우 미국 정부와 100억달러짜리 계약을 맺었다. 안보 딜레마에 위협 과장, 정치·경제적 이익 추구까지 결합하면 상호 적대와 군비 경쟁은 더 달아오를 수밖에 없다.

미국 해병대 병사들이 로봇견과 함께 훈련하고 있다. 출처: 미국 해병대 누리집
미국 해병대 병사들이 로봇견과 함께 훈련하고 있다. 출처: 미국 해병대 누리집

양심과의 완전한 결별

무기의 파괴력 증가가 죄책감을 비례적으로 증가시키지는 않는다. 전쟁의 기계화와 원격화는 오히려 양심을 실종시키는 결과를 낳기도 했다. 폭격기 탑승자들은 목표에 폭탄을 떨구고 떠나면 그만이다. 높은 상공에서 스위치를 작동했을 뿐인 그들로선 희생자들 얼굴을 알지도 못한다. 불가피한 작전이라는 합리화까지 더해진다. 1945년 일본 히로시마에 원자폭탄을 떨어뜨린 폭격기 ‘에놀라 게이’ 조종사 폴 티베츠는 30년 뒤 <콜럼버스 디스패치>라는 신문 인터뷰에서 자랑스러운 임무 수행이었다며 “매일 밤 잘 잔다”고 했다.

지상전 병사라면 자신이 살해한 인명과 파괴한 마을을 보며 가책을 느낄 수 있다. 수십년이 지나도 자기 손에 희생된 적병 얼굴이 떠올라 눈물을 쏟기도 한다. 무고한 민간인을 살해했다면 그 양심은 더욱 무거워진다. 1980년 광주에서 무고한 사람을 총격 살해한 계엄군이 지난달 16일 유족을 만나 “40년간 죄책감에 시달렸다”며 사죄한 것도 기계가 아닌 인간이기에 한 행동이다. 사실 가장 가공할 현대전의 공격 방식인 폭격도 비난과 책임으로부터 그리 자유롭지는 못하다. 1945년 영국 공군 폭격사령부가 독일 드레스덴을 불바다로 만들어 2만5천명을 학살하자 비난이 들끓었다. 윈스턴 처칠 총리는 “우리가 짐승이냐”며 역정을 내고 책임을 피하려 했다. 그는 2차대전 종전 뒤 영국군 부대들을 일일이 거명하며 칭송할 때 폭격사령부는 입에 올리지 않았다. 폭격사령부 전몰자 기념비는 67년이 지나서야 세워졌다.

그런데 인공지능 군사화는 책임과 양심이 완전히 실종될 수 있다는 중대한 윤리적 문제를 야기한다. 인공지능의 행위는 누구에게 책임을 물어야 하나? 전투 개시자인가, 프로그램 설계자인가, 살상 범위를 지정한 조작자인가, 그도 아니면 기계 자체인가? 만약 상용화된 인공지능 논란과 비슷하게 자체 학습을 통해 특정 인종을 표적으로 삼는다면? 궁극적으로 인류가 파멸하면 인류 자신의 책임인가, 인공지능 탓인가?

인공지능 무기 옹호론은 불필요한 희생을 줄일 수 있다고 주장한다. 전투원과 민간인을 정확히 가려 공격하고, 전장에 사람을 덜 투입하는 것 자체가 윤리적이라는 말이다. 기계는 흥분하지 않으니까 전쟁 윤리 문제를 덜 일으킬 것이라고도 한다. 따라서 인간이 적절히 개입하도록 설계하면 기존 전쟁 방식보다 나쁠 게 없다는 게 옹호론의 결론이다. 미국 국방부의 인공지능 무기 가이드라인은 “무력 사용에서 적절한 수준의 인간 판단”을 제시하고 있다. 하지만 모호하고 구속력도 없다. 인공지능 무기화의 기본 동기가 군사적 판단과 반응 속도 향상, 아군 인명 손실 최소화인 점을 고려하면 인간의 통제는 순위가 밀릴 수 있다.

반대론의 핵심은 ‘어떻게 기계가 인간의 생사여탈권을 갖나’다. ‘스톱 킬러 로봇 캠페인’이 입소스에 의뢰해 지난해 12월 28개국 1만9천여명을 상대로 한 조사에서 킬러 로봇 반대율이 61.3%에 달했다. 찬성률은 21.5%였다. 반대자들은 ‘기계가 사람을 살해하는 것은 도덕적 한계를 넘기 때문’(66.2%·중복응답)이라는 이유를 가장 많이 꼽았다. 이어 ‘기계는 책임을 결여하기 때문’(52.5%)이라며 역시 윤리적인 이유를 많이 제시했다.

인공지능의 잘못된 판단이 인간이 의도하지 않은 무력 충돌로 이어질 가능성도 문제다. 앞의 여론조사에서 반대자들의 41.7%는 기술적 오류 문제를 들었다. 미국 인공지능 국가안보위 보고서도 잘못 설계되면 오판에 의한 개전 가능성이 있다고 인정했다. 과거 미국의 방공 시스템이 새떼를 소련 핵미사일로 오인해 핵전쟁으로 이어질 뻔한 사례도 있다. 인공지능이 비슷한 실수를 저지르지 말라는 법은 없다. 보고서는 이런 우려 탓에 핵무기 사용만은 미국 대통령이 분명한 결정권을 유지해야 한다고 권고했다.

오류에는 오작동뿐 아니라 인간이 의도하지 않고 이해하기도 어려운 판단과 행동도 포함된다. 인공지능 개발에 많이 이용되는 게임 관련 일화를 보자. 미국 카네기멜런대 교수가 테트리스로 인공지능을 실험하면서 ‘지지 말라’는 명령을 입력했는데 빠르게 내려오던 블록이 갑자기 멈췄다고 한다. 인공지능은 게임 중단이 불패를 위한 최적의 방법이라고 판단한 것이다. 사람이라면 잘하지 않을 엉뚱한 행동이다. 인공지능 무기체계가 상대의 것과 상호작용해 예상하지 못한 끔찍한 사고를 일으킬 수도 있다. 인공지능에는 이처럼 ‘설명 불가능성’의 문제가 있다.

인공지능이 전쟁의 유혹을 키울 수도 있다. 미국을 비롯한 현대 국가들은 자국군 희생과 그에 대한 여론을 전쟁 개시와 지속 여부에 중요하게 고려한다. 인공지능 무기가 인명 손실을 줄인다면 이런 부담이 가벼워진다. 같은 맥락에서 인공지능 무기로 국가들 간 군사력 비대칭성이 커지면 힘의 논리가 더욱 횡행하는 세계가 열릴 것으로 보인다. 이런 무기가 범죄자나 테러조직 수중에 떨어질 수도 있다. 인공지능 무기의 자국민 탄압 이용도 빠트릴 수 없는 문제다.

후회할 땐 늦다

2차 무기혁명의 주인공 핵무기는 군비 증강은 쉽지만 군축은 매우 어려움을 보여준다. 무시무시한 힘을 진작 알았던 사람들은 재앙이 현실화돼서야 비로소 반성했다. 미국 로스앨러모스연구소를 이끈 ‘원자폭탄의 아버지’ 로버트 오펜하이머가 그랬다. 오펜하이머는 일본 히로시마와 나가사키를 원자폭탄이 강타하고 두달 뒤인 1945년 10월 해리 트루먼 대통령에게 “내 손에 피가 묻었다”며 국제적 핵무기 통제의 필요성을 호소했다. 트루먼은 “손에 피를 묻힌 건 나”라며 화를 냈다. 1939년 프랭클린 루스벨트 미국 대통령에게 독일이 선수를 치기 전에 원자폭탄을 만들라고 촉구한 알베르트 아인슈타인은 1955년 세상을 뜨기 며칠 전 철학자 버트런드 러셀 등과 함께 인류 절멸 위험을 경고하는 ‘러셀-아인슈타인 선언’에 서명했다.

소설 속 설정이 그대로 현실화
양심·연민 결여 피조물의 위협
인간은 ‘살인기계’에 쫓길 판
대재앙 예고하는 주도권 다툼
“기계에 생사여탈권 부여 안돼”
소련 ‘수소폭탄의 아버지’ 안드레이 사하로프도 프랑켄슈타인처럼 자신의 창조물에 압도당한 사람이다. 사하로프는 1961년 사상 최대 수소폭탄 실험으로 폭발 파장이 지구를 세바퀴 반이나 돈 ‘차르 봄바’(황제 폭탄)의 위력을 보고서 더는 안 되겠다며 반체제 인사의 길로 접어들었다. 이런 노력들 덕에 핵군축 논의가 이어졌지만 핵무장 범위는 확대됐다. 프랑켄슈타인도 “살육과 고통에서 쾌감을 찾는 저주받은 괴물을 내가 이 세상에 풀어놓았구나”라고 탄식했지만 후회는 어디까지나 후회였다.

고삐가 풀리면 핵무기처럼 인류를 오랫동안 고통과 공포에 빠트릴 잠재력을 지닌 인공지능 무기에 대한 반대 움직임도 활발하다. 2012년 휴먼라이츠워치 등이 뭉쳐 만든 ‘스톱 킬러 로봇 캠페인’이 대표적이다. 스티븐 호킹 등 명사들, 노벨평화상 수상자 25명, 각국 인공지능 과학자 수천명, 정보기술 기업 대표 등이 반대운동에 나서거나 유엔 청원에 참여했다. 테슬라 창업자 일론 머스크는 “인공지능 경쟁이 3차대전을 일으킬 가능성이 매우 높다”고 주장했다. 머스크 등은 인공지능이 선제공격이 최선이라고 판단하고 도발할 가능성이 크다고 말한다. 드론 촬영 영상 데이터를 이용해 인공지능으로 표적을 식별하는 기술을 개발하는 미국 국방부의 ‘메이븐 프로젝트’에 참여했던 구글은 2018년 직원 수천명이 항의하자 발을 뺐다. 아마존 등 다른 업체 직원들도 인공지능 군사화에 반대해왔다. 미국 해병대 4성 장군 출신으로 싱크탱크 브루킹스연구소 소장을 맡은 존 앨런은 최근 인공지능에 의한 조기 개전과 확전 가능성을 경고하며 “세계적 차원의 조약을 협상할 때”라고 주장했다. 그는 인공지능 군사화의 초기인 지금이 적기라고 했다. 유럽의회는 올해 1월 “유럽연합(EU)의 전략에서 킬러 로봇 사용을 금지해야 한다”는 결의안을 채택했다.

하지만 유엔은 발걸음이 더디다. 유엔은 2013년 특정재래식무기금지협약(CCW) 차원에서 자율살상무기 제조, 판매, 사용 금지를 검토하기 시작했다. 제조와 사용 금지에 30여개국이 동조하고 있다. 안토니우 구테흐스 유엔 사무총장은 지난해 5월 안전보장이사회 제출 보고서에서 “기술이 인간의 목숨을 빼앗을지 말지를 결정하게 하는 것은 근본적인 윤리 문제”라며 “자율살상무기 개발에 관한 우려 해소를 위해 신속히 움직여야 한다”고 촉구했다. 그러나 개발 주도국들은 호응하지 않는다. 미국, 러시아, 이스라엘은 규제 자체에 찬성하지 않는다. 중국은 개발이 아닌 사용 금지에만 동의를 표했다.

오펜하이머는 “우리 자신 안에 있는 악을 부인할 때 우리는 스스로 비인간화되며, 우리 운명뿐 아니라 다른 이들의 악을 다룰 수도 없다”고 했다. 인류는 그가 말한 ‘악’으로 인공지능 무기라는 ‘비인간’을 만드는 게 아닐까? 프랑켄슈타인과 논쟁하던 괴물은 “내게 힘이 있다는 걸 기억하라”며 이렇게 외쳤다.

“네놈은 내 창조주이지만, 나는 네 주인이다. 순종하라!”

이본영 기자 ebon@hani.co.kr
항상 시민과 함께하겠습니다. 한겨레 구독신청 하기
언론 자유를 위해, 국민의 알 권리를 위해
한겨레 저널리즘을 후원해주세요

광고

광고

광고

국제 많이 보는 기사

이스라엘, 레바논 헤즈볼라 로켓발사대 100곳 폭격…전면전 우려 1.

이스라엘, 레바논 헤즈볼라 로켓발사대 100곳 폭격…전면전 우려

해리스-트럼프 전국 지지율 47% ‘동률’…경합주 박빙 승부 2.

해리스-트럼프 전국 지지율 47% ‘동률’…경합주 박빙 승부

어민 목숨 앗아간 독도 폭격, 일본은 영유권을 주장했다 3.

어민 목숨 앗아간 독도 폭격, 일본은 영유권을 주장했다

[영상] 화웨이 ‘3단 병풍폰’ 펼쳐보니 4.

[영상] 화웨이 ‘3단 병풍폰’ 펼쳐보니

“노예제 부활” “난 흑인 나치”…극우 주지사 후보에 공화당 가슴졸여 5.

“노예제 부활” “난 흑인 나치”…극우 주지사 후보에 공화당 가슴졸여

한겨레와 친구하기

1/ 2/ 3


서비스 전체보기

전체
정치
사회
전국
경제
국제
문화
스포츠
미래과학
애니멀피플
기후변화&
휴심정
오피니언
만화 | ESC | 한겨레S | 연재 | 이슈 | 함께하는교육 | HERI 이슈 | 서울&
포토
한겨레TV
뉴스서비스
매거진

맨위로
뉴스레터, 올해 가장 잘한 일 구독신청