윤석열 국민의힘 대선후보가 선대위 출범식에서 ‘AI(인공지능:Artificial Intelligence) 윤석열’을 선보이면서 ‘아바타 선거운동’의 시대가 열렸다는 평가와 함께 더욱 정교한 허위사실유포에 활용될 수 있다는 우려가 나온다.

이 영상은 이른바 ‘딥페이크’(Deepfake)라는 AI 기술로 제작된 영상으로 AI가 기계학습을 통해 만들어낸 가짜 영상이다. 산업적으로도 활용되고 있지만 딥페이크 영상이 문제가 되고 있는 것은 유명연예인을 음란물에 합성해 디지털성범죄에 악용된 사례가 가장 많다. 또한 유명 인사의 딥페이크 영상으로 허위발언을 하도록 제작해 가짜뉴스의 근원이라는 비판도 제기된다. 선거를 앞두고 딥페이크 영상을 악용할 경우 유권자에 잘못된 선택을 이끌 우려도 있다는 지적이다. 이재명 더불어민주당 후보는 딥페이크 영상 방지대책을 선거 공약으로 내세우기도 했다.

지난 6일 열린 윤석열 후보의 선대위 출범식의 막을 연 윤석열은 ‘AI 윤석열’이었다. 그는 영상에서 자신을 AI 윤석열이라고 소개한 뒤 “윤석열 후보와 너무 닮아 놀라셨느냐”며 “정치권 최초로 만들어진 AI 윤석열은 윤석열 후보가 열어갈 대한민국의 새로운 미래와 도전을 상징한다”고 주장했다. AI 윤석열은 “선거혁신의 시작”이라며 “동에 번쩍 서에 번쩍 방방곡곡 국민여러분을 찾아갈 것”이라고 했다. 영상에서의 목소리와 겉모습 등을 볼 때 AI 윤석열이라고 얘기해주거나 정교하게 분석하지 않으면 구분하기 어렵다.

딥페이크란 무엇인가

‘AI 윤석열’과 같은 가짜 영상을 딥페이크라고 한다. 딥페이크는 딥러닝과 페이크의 합성어로 ‘생성적 적대신경망(GAN:Generative Adversarial Networks)’ 기술로 만들어진 동영상 또는 음성 콘텐츠를 말한다. 2014년 이안 굿펠로우가 학회에서 연구결과를 처음 발표하면서 알려졌다. 이 기술은 생성자(Generator)와 감별자(Discriminator)가 서로 대립(경쟁)하면서 정확도를 높이는 영상을 만들어내도록 스스로 학습하는 AI기법이다. 문제는 점차 오차가 줄어들어 실제 대상물과 가짜영상이 구분하기 힘들어지고 있다는 데 있다.

저명한 인공지능 연구자인 스튜어트 러셀 캘리포니아 컴퓨터과학과 교수는 지난 6월 내놓은 본인의 저서 ‘어떻게 인간과 공존하는 인공지능을 만들 것인가’(이한음 옮김, 2021년 6월30일)에서 “최근에 이뤄진 또 한가지 변화는 AI, 컴퓨터 그래픽, 음성 합성이 결합됨으로써 딥페이크 제작이 가능해지고 있다는 것”이라며 “딥페이크는 실제로 누군가 무엇을 말하거나 하고 있는 양 여겨지는 진짜 같은 동영상과 음성 콘텐츠를 말한다”고 소개했다.

▲이른바 AI 윤석열이 지난 6일 윤석열 국민의힘 대선후보 선대위 출범식에서 자신을 소개하고 있다. 사진=국민의힘 영상 갈무리
▲이른바 AI 윤석열이 지난 6일 윤석열 국민의힘 대선후보 선대위 출범식에서 자신을 소개하고 있다. 사진=국민의힘 영상 갈무리

 

러셀 교수는 “이 기술은 원하는 사건을 말로 기술한 내용만 있으면 만들 수 있는 수준으로 발전하면서 세계의 거의 모두가 이용할 수 있게 될 것”이라며 극단적인 사례를 제시했다.

“국회의원 X가 Z라는 음침한 곳에서 코카인 거래상 Y에게 뇌물을 받는 장면을 담은 휴대전화 동영상이 필요한데? 문제없다! 이런 유형의 콘텐츠는 절대 일어난 적 없는 일을 굳게 믿도록 유도할 수 있다”(159~160쪽).

특히 딥페이크 기술로 제작된 영상을 악용하는 가장 빈번한 사례는 성인물 영상에 유명 연예인 얼굴을 합성해 음란물을 제작 배포하는 일이다. 방송통신심의위는 지난달 18일 여성 아이돌 가수의 초상을 이용한 성적 허위정보로, 418건(68.1%)은 불법음란사이트에서 딥페이크 영상물 형태로, 196건(31.9%)은 SNS를 통해 합성된 이미지 형태로 모두 614건의 정보를 적발해 차단조치하기도 했다. 보이스피싱 및 사기에도 활용되며, 누군가의 얼굴을 합성해 타인을 사칭하면서 가짜뉴스를 생성하는 경우도 많다. 유명인의 얼굴로 합성한 얼굴로 타인을 비난하는 허위 영상으로 명예훼손을 끼칠 우려도 나온다.

이재명 “딥페이크 제작·반포·소지·구입·저장도 금지시키겠다” 공약

이재명 민주당 대선후보는 지난 5일 페이스북에서 “딥페이크의 긍정적인 영향도 있지만 연예인 합성 음란물 제작‧유포, 보이스피싱 사기 등 심각한 인권침해와 범죄 행위에 강력히 대처해야 한다”고 밝혔다. 이 후보는 “미국 대선 투표 독려 김정은 위원장 합성 영상, 트럼프 대통령을 비난하는 가짜 오바마 대통령 영상 사례처럼 딥페이크 가짜뉴스는 당장 이번 우리 대선에서도 유권자의 선택을 왜곡할 수 있는 심각한 위협”이라고 강조했다. 이 후보는 이를 위해 △현행법을 강화해 악의적 딥페이크 허위영상물 제작‧유포는 물론 소지‧구입‧저장 행위도 강력 처벌 △딥페이크 ‘가짜영상’ 식별 기술 개발, 검찰 경찰 선관위 등 공적 역량 강화, 딥페이크 사기와 유포에 대한 교육 등 대응 능력 제고 △우리 대선에도 ‘악의적 딥페이크 가짜영상’이 난무하지 않도록 플랫폼 기업들의 민간 자율규제 강화 요구 등 딥페이크 방지 공약을 내놓았다.

이재명 선대위 정책본부의 신동주 팀장은 7일 오후 미디어오늘과 통화에서 “당장 딥페이크 영상을 통한 선거 여론조작은 없지만, 대선 막바지에 악의적 딥페이크 영상이 유포되면 손쓸 새도 없이 인터넷상에서 심대한 영향을 줄 수 있다”며 “사전에 견제해야 한다는 의미”라고 밝혔다. 신 팀장은 AI 윤석열을 두고 “AI 사용에 대해 선거법에서 직접적으로 적용할 수 있는 기준이 없는 상태에서 AI를 쓰는 것은 각별한 주의가 필요하다”고 지적했다. 현행 공직선거법 250조(허위사실공표죄) 제1~2항에는 당선(낙선)되게할 목적으로 연설·방송·신문·통신·잡지·벽보·선전문서 ‘기타’의 방법으로 허위사실을 기재하는 것을 금지하고 있다. 열거대상엔 특정되지는 않았지만 ‘기타’의 방법에 해당될 여지가 있는지 논의해봐야 한다는 지적이다. 신 팀장은 “그 영상(AI 윤석열)의 발언이 후보자(윤석열) 본인의 발언으로 법적 책임을 물을 수 있을지도 쟁점일 수 있으나 아직 그에 관한 기준이 없다”고 지적했다.

“딥페이크의 정치화 대중기만 아바타 선거 막아야”

이를 놓고 딥페이크의 선거활용을 막아야 한다는 목소리도 나온다. 김민웅 경희대 미래문명원 교수는 6일 페이스북에서 “버벅거리는 윤석열을 대체할 AI 윤석열의 등장은 Deep Fake 기술의 정치화로, 대중을 기만하는 방식”이라며 “영상 아바타로 선거운동을 하는 것은 불법으로 규정해야 한다”고 비판했다. 김 교수는 방방곡곡에 AI 윤석열을 등장시키겠다는 선언에 “대대적인 프로젝트다. 결코 안 된다”며 “선관위는 가짜 대체물로 선거하는 이같은 방식을 전면 금지시켜야 한다”고 강조했다.

고삼석 전 방송통신위원회 상임위원도 페이스북에 올린 글에서 “후보대신 딥페이크 기술을 적용한 ‘아바타’를 활용해 ‘일상적으로’ 선거운동을 하겠다는 발상 자체가 문제”라며 “잘 만들어진 아바타를 보고 자신을 선택해 달라고 유권자에게 호소하는 것은 일종의 ‘사기’(fake)로 느껴진다”고 비판했다. 고 전 위원은 “이런 것이 용인된다면 멀지 않은 대선에서 각 정당은 아바타를 앞세워서 선거운동을 할 것이고, 유권자들은 그 아바타를 보고 대통령을 선택하게 될 것”이라며 “이것이 정상적인 민주주의인가? 나는 단호하게 반대한다”고 덧붙였다.

 

저작권자 © 미디어오늘 무단전재 및 재배포 금지