인공지능을 이용해 진짜와 구별되지 않는 가짜를 만들어내는 ‘딥페이크 기술’의 위험성에 대한 우려가 커지고 있다. 조작된 결과와 진실을 구별하기 점점 어려워지는 상황은 정보화가 가져온 대표적 부작용이다. 가짜 뉴스가 단적인 사례다.
2017년 말 등장한 딥페이크 기술은 심화신경망(딥러닝) 방식의 인공지능 기술에 기반한 기계학습을 통해 진짜와 거의 구별되지 않는 ‘감쪽같은 가짜’를 만들어내는 기술이다. 사진뿐 아니라, 음성, 동영상 등 다양한 영역에서 ‘완벽한 가짜’ 콘텐츠가 만들어지고 있다. 딥페이크 기술은 오픈소스 형태로 제공되고 있어, 손쉽게 활용이 가능하다. 최근 영국에서는 딥페이크 음성 조작으로 상사의 목소리를 만들어내 거액을 송금하라는 전화를 받은 경영자가 속아 약 3억원을 사기당하는 일도 일어났다.
구글이 개방한 동영상은 배우가 실제로 촬영한 진본 동영상(위)과 딥페이크로 조작된 영상(아래)이 세트를 이루고 있어, 딥페이크 기술이 어떻게 원본을 조작하는지 비교할 수 있도록 했다.
딥페이크 탐지 기술을 개발하기 위한 기술업체들의 노력도 잇따르고 있다. 구글은 지난 24일(현지시각) 자신들이 그동안 개발해온 딥페이크 동영상 3000개를 공개한다고 블로그를 통해 밝혔다. 구글은 독일 뮌헨공대와 이탈리아 나폴리 페데리코2세 대학 연구진의 딥페이크 탐지연구인 ‘페이스포렌식(FaceForensics)’을 지원해왔는데, 이 연구를 통해 만들어진 딥페이크 동영상 데이터베이스를 공개하기로 한 것이다. 구글과 두 대학 연구진은 지난 1년 동안 딥페이크 동영상을 만들기 위해 28명의 배우를 고용해 수천개의 동영상 샘플을 제작해왔다. 동영상은 다양하게 연기하는 배우의 얼굴 부분을 촬영한 뒤 다른 배우의 신체 부위 영상과 합성하는 방식으로 만들어졌다. 딥페이크를 활용한 조작 포르노에서 흔하게 활용되고 있는 방식과 유사하다. 구글은 배우들의 자세와 표정, 동작 연기를 촬영한 뒤 다양한 상황의 딥페이크 동영상을 만들어낸 것이다. 구글은 이렇게 만들어진 진짜 동영상과 조작된 동영상 데이터세트를 연구자들에게 무료로 개방한다고 밝혔다. 구글이 밝힌 목적은 딥페이크 탐지 기술의 개발 연구 지원이다.
구글은 이에 앞서 2019년 1월에도 음성 합성 탐지기술 개발연구를 지원하기 위한 목적으로 구글이 만들어온 음성 합성 데이터세트를 개방한 바 있다. 국제적으로 150여 기업과 연구단체가 이를 내려받았으며, 현재는 일반 공개된 상태다. 구글은 지난해 5월 개발자대회(구글I/O)에서 사람 목소리와 식별되지 않는 인공지능 전화예약 음성비서 ‘듀플렉스’를 시연했다가, 부작용과 악용 가능성에 대한 비판에 직면한 바 있다.
인공지능 스타트업인 제네레이티드포토가 개방한, 인공지능이 만들어낸 고해상도 얼굴사진, 실제 인물 사진이 아니기 때문에 초상권도,저작권도없다. 제네레이티브포토 제공.
최근 인공지능 스타트업 제네레이티드포토(Generated Photos)는 인공지능이 합성한 10만장 얼굴사진 데이터베이스를 구글 드라이브를 통해 공개했다. 이 업체는 사진 데이터베이스 개방으로 ‘백인 선호’ 편향을 보이는 알고리즘의 다양성 결여 문제를 해결할 수 있으며, 누구나 초상권과 저작권이 없는 ‘인공지능 합성 얼굴사진’을 사용할 수 있다고 홍보했다. 2019년 2월 컴퓨터칩 제조업체인 엔비디아도 생성적 적대 신경망(GAN) 기술을 활용한 오픈소스 고해상도 사진 합성도구인 ‘스타일갠(StyleGAN)’을 개발해 개방한 바 있다.
엔비디아가 지난 2월 개방한 오픈소스의 인공지능 합성사진 생산도구 ‘스타일갠(StyleGAN)‘을 통해 만들어낸 사진. 엔비디아 제공.
이러한 딥페이크 탐지기술 연구 지원을 위한 데이터와 도구 개방 대한 평가는 엇갈린다. ‘MIT 테크놀로지 리뷰’는 지난 26일 이러한 노력을 기본적으로 절대적 승자가 없는 ‘쫓고 쫓기는 게임’이라고 평가했다. 진본 동영상과 조작 동영상을 함께 공개함으로써 딥페이크 어떤 방식으로 영상을 조작해내는지에 대한 탐지 기술연구는 진전을 이룰 것이다. 하지만 알고리즘은 그 결함이 탐지되어도, 손쉽게 보완하고 업그레이드할 수 있기 때문에 딥페이크 조작 기술 또한 함께 진전할 것이다. 그래서 일부 전문가들은 합성이미지의 결함을 탐지한 알고리즘도 조작이미지의 결함을 찾아내지 못한 것처럼 가장하는 기능을 연구하고 있다. 탐지 기술 자체도 자신의 존재와 상태를 숨기는 방식이다. 그런가 하면, 이러한 기술적 방식은 끝없는 쫓고 쫓기는 순환고리에 빠지는 만큼, 사회적·법적·정치적 해결책과 동기 부여가 병행되어야 한다는 목소리도 힘을 얻고 있다.
구본권 선임기자 starry9@hani.co.kr