지난해 미국의 반도체업체 엔비디아의 연구진이 공개한 인공지능 신경망(GAN)을 활용한 이미지 생성 사례. 초기 저해상도의 식별 불가능한 이미지가 데이터를 통한 자체 학습과 피드백 과정을 거치면서 나중에는 1024-1024 픽셀 크기의 선명한 이미지로 다듬어졌다. 미국 유명 영화배우 제니퍼 애니스톤을 닮았지만 완벽하게 같지는 않다. 엔비디아 제공
# 지난해 12월 ‘딥페이크’라는 아이디가 인공지능 기술을 활용한 유명 연예인의 위조 영상물을 인터넷에 공개했다. 스칼릿 조핸슨, 에마 왓슨 등 유명 영화배우의 얼굴을 성인 영상물에 합성했는데 진위 식별이 불가능한 수준이다. 이미 국내 여성 연예인들을 합성한 성인 영상물이 유통되고 있어 피해가 벌어지고 있다.
# 구글은 지난 8일 개최한 연례 개발자대회(I/O)에서 사람 목소리를 완벽하게 흉내내는 인공지능 음성비서 서비스 듀플렉스를 공개했다. 미용실과 식당에 전화를 걸어 상대의 질문과 답변에 자연스럽게 응대하고 주어진 과업을 완수하는 인공지능을 매장 종업원 누구도 눈치채지 못했다.
# 조작된 이미지와 사실을 퍼뜨리는 가짜 뉴스를 뿌리뽑기 위해 인공지능을 활용하는 시도도 활발하다. 가짜 뉴스의 피해가 확산되자 구글과 페이스북은 인공지능을 이용해 가짜 뉴스와 악성 댓글을 걸러내는 기술 개발에 뛰어들었다. 국내 과학기술정보통신부는 경제적·사회적 문제 해결을 위한 ‘인공지능 연구개발 챌린지 대회’를 개최하고 있다. 지난해 경진대회 과제는 ‘가짜뉴스 찾기’였고, 7월 열릴 올해 대회 과제는 ‘합성사진 찾기’이다.
진짜와 가짜를 놓고 쫓고 쫓기는 경쟁에 인공지능이 가세해, 공방이 새로운 차원으로 확대되고 있다. 인공지능 기술이 진짜보다 진짜 같은 가짜를 만들어내는 상황에서 “앞으로 자연인이 진짜와 가짜를 식별하는 일이 가능할까”, “진짜 같은 가짜가 손쉽게 만들어져 유통되면 개인과 사회는 어떤 문제에 부닥칠까”의 문제이다. 인공지능으로 만들어낸 진짜 같은 가짜가 뉴스와 검색결과, 전화통화 등에서 활용된다면 피해는 포르노처럼 특정한 영역에 국한되지 않게 된다.
구글은 듀플렉스의 시연을 통해 완벽한 사람의 목소리로 변화하는 상황에 기민하게 대응하는 전화통화 기술을 선보였지만, 이내 수많은 사람들의 불안과 우려, 비판에 직면했다. 전화 목소리의 톤과 내용으로 가짜와 진짜를 식별할 수 없어진다면 거의 모든 식당과 공연, 행사 예약에 매크로 프로그램이 활용될 수 있다는 우려다. 텔레마케팅 전화와 보이스피싱이 지금과 비교할 수 없이 정교하게 시도된다면 어떻게 될까에 대한 불안이었다. 구글은 우려와 비판이 제기되자 듀플렉스를 상용화할 시점에는 ‘사람이 아니라 인공지능이 건 전화’라는 점을 말하겠다고 밝혔다. 하지만 각종 페이크 영상과 보이스피싱처럼 의도를 드러내지 않는 이용자도 해당 기술을 사용한다.
그동안 포토샵을 이용한 이미지 수정과 조작이 가능했지만, 최근 빅데이터와 인공지능 기술 발달은 조작과 가짜의 수준을 진짜와 다름없게 만들어 식별이 불가능한 수준에 도달했다. 구글 연구원 이언 굿펠로가 2014년 몬트리올대 박사과정 시절 개발한 진짜 같은 가짜 이미지를 만들어낸 인공지능 신경망(GAN) 기술 덕분이다. 이 신경망은 경쟁하는 알고리즘 두 개로 구성됐는데 하나는 데이터에 기반한 이미지 식별 기술을 활용해 점점 더 정교한 이미지를 생성하는 알고리즘이다. 또다른 신경망은 이렇게 만들어진 이미지가 진짜인지 가짜인지를 판별하는 알고리즘이다. 두 신경망이 대립하고 경쟁하면서 충돌하는 차이점을 발견하고 피드백을 주고받으며 조작과 감식의 품질을 높여가는 방식이다. 굿펠로는 생성 알고리즘과 판별 알고리즘의 관계를 위조지폐범과 수사관에 비유한다. 감쪽같은 위조지폐는 그것을 판별할 수 있게 하는 정교한 감식기술을 요구하고, 위폐 감지 수준이 높아지면 그를 통과할 수 있는 더 정교한 위폐가 등장하게 된다. 위폐 제조와 감별 경쟁이 피드백을 주고받은 결과는 진짜와 식별이 거의 불가능해진, 완벽에 가까운 위폐의 등장이다.
미국 국방부 방위고등연구계획국(다르파)은 올여름 세계적 인공지능 전문가들을 대상으로 딥페이크 동영상을 제작하고 감식하는 경진대회를 개최한다. 진짜 같은 가짜 동영상이 가짜 뉴스에 활용돼 대통령 연설이나 유명인의 증오범죄 유발 발언 등을 만들어낼 경우 재앙적 결과로 이어질 수 있다는 우려 때문이다. 하지만 많은 전문가들은 진짜 같은 가짜를 만들고 식별하기 위한 인공지능 경쟁이 결국엔 승패의 의미가 없는 결과로 이어지는, 승산 없는 게임이 될 것이라고 말한다. 냉전시기 초강대국 간 군비 경쟁이 상호 확증파괴 시스템으로 이어져, 지구 전체를 파괴시킬 수 있는 대량 살상무기를 만들어낸 결과와 유사하다.
미국 워싱턴대 연구진이 지난해 인공지능을 이용해 오바마 전 대통령의 가짜 동영상을 만들어 공개한 이미지. 14시간 분량의 오바마 동영상을 학습해 해상도 높은 가짜 동영상을 만들어냈다.
지난해 10월 컨설팅그룹 가트너는 미래전망 보고서를 통해 “2022년이 되면 대부분의 사람들이 진짜 정보보다 가짜 정보를 더 많이 접하게 될 것”이라는 전망을 내놓았다. 기술이 진짜 같은 가짜를 놓고 쫓고 쫓기는 경쟁을 하고 있지만 기술만으로는 해결이 불가능한 문제이다. 법과 제도, 윤리, 비판적 사고와 같은 오래된 비기술적인 방법이 함께 동원되어야 하는 과제이다.
지난 15일 한국을 찾은 빈트 서프 구글 부사장도 가짜 뉴스를 기술적 방법으로 막는 것에는 한계가 있으며, “가장 강력한 필터는 사용자의 머리로, 정보가 어디서 오는 것인지, 입증할 만한 다른 증거는 있는지를 직접 판단해야 한다”며 “비판적 사고를 통해 사용자가 판단해야 한다”고 말했다. 진짜와 가짜를 거의 구별하기 힘든 환경일수록 가짜 같은 진짜의 영향력이 커지게 되어 진짜와 가짜를 식별할 줄 아는 ‘비판적 사고’가 무엇보다 중요한 지적 능력이 된다.
사람과디지털연구소장
starry9@hani.co.kr
◎ Weconomy 홈페이지 바로가기: https://www.hani.co.kr/arti/economy◎ Weconomy 페이스북 바로가기: https://www.facebook.com/econohani