작성일 : 24-03-03 23:23
[182호] 인권 포커스 Ⅱ - “보이는 게 다가 아니야!”
 글쓴이 : 사무국
조회 : 406  
“보이는 게 다가 아니야!”

편집위


2024년은 전 세계 47개국에서 선거가 치뤄지고 치뤄질 예정이다. 우리나라 총선과 미국 대선, 타이완 선거와 유럽의회 선거 등 전 세계 총인구의 약 절반에 해당하는 약 40억 명이 투표를 한다. 동시에 생성형 인공지능(AI)이 본격 동원되는 최초의 선거가 될 것이란 우려도 현실이 되고 있다. AI 딥페이크 기술이 한층 발달하고 정교해지면서 가짜 영상과 음성을 이용하여 여론을 조작하려는 허위정보가 판을 칠 것이란 경고가 나온다. 반면 이를 제어할 안전장치는 기술이나 제도적으로 매우 미흡하다. 딥페이크(deepfake: 인공지능 합성기술을 활용하여 실제처럼 조작된 이미지나 영상)를 활용한 가짜뉴스는 사실과 주장의 경계를 모호하게 만들면서 민주주의를 위협할 것이다.

딥페이크가 선거와 정치판을 뒤흔드는 사례는 이미 세계 곳곳에서 확인되고 있다.

지난해 5월 미국 공화당 전국위원회는 30초짜리 광고를 공개했다. 중무장하고 샌프란시스코 거리를 순찰하는 미군, 남부 국경을 점령한 이민자들, 대만을 폭격한 중국 전투기가 나온다. AI가 만든 가짜 이미지였다. 튀르키에 대선(23년 5월)에서는 테러단체 인사가 여당 후보를 지지하는 영상이 퍼졌다. 이 영상이 가짜라는 것은 대선이 끝난 뒤에야 밝혀졌다. 9월 총선을 치른 슬로바키아에서는 투표 이틀 전에 “우리 당이 선거에 이기려면 (소외 계층인) 로마족에게 돈을 줘야 한다”는 미할 시메츠카 친미성향 야당대표의 음성파일이 공개되었다. 이 역시 가짜였다. 프랑스24는 이 음성파일이 친러시아 성향 야당의 승리를 견인했다고 전했다. 지난 10월 영국에서는 제1야당인 노동당의 키어스타머 대표가 직원에게 폭언하는 가짜 음성파일이 AI 딥페이크로 만들어져 퍼져나갔다. 올해 1월 대만 선거에서는 가짜 정보가 활개쳤다. 대만 국가안전국에 따르면 지난해 1,400개였던 가짜 정보가 1월 한 달 동안 1,800개로 늘어났다.

미국에서도 AI 딥페이크를 활용한 가짜뉴스가 선거판을 흔들고 있다. 도널드 트럼프 전 대통령이 경찰에 체포되는 가짜 영상이 공개되었다. 뉴햄프셔주 예비선거에서는 바이든의 목소리로 ‘화요일에 투표를 하면 공화당이 도널드 트럼프를 다시 대선 후보로 선출하도록 돕는 것이다.’라는 자동 녹음 전화가 논란이 되었다. 목소리는 바이든이었지만 조작된 메시지였다. 28초짜리 이 전화 음성에는 바이든 대통령이 즐겨 사용하는 “말도 안 되는 소리(What a bunch malarkey)”라는 문구도 담겨있어 전화를 받은 사람들은 감쪽같이 속았다.

로이터 통신은 지난 1월 게리 겐슬러 미국 증권거래위원장의 비트코인 승인 관련 발언을 1보로 전 세계에 타전했다. 겐슬러 위원장은 평소 가상화폐 위험성을 강조해온 사람이다.
SNS계정 해킹으로 만들어진 가짜 뉴스를 사실 확인 없이 보도한 것이다. 이후 비트코인 가격은 급등하고 있다. (급등 이유가 이 보도 때문이라고 단정할 순 없지만...)

디지털뉴스 ‘리포트 2023 한국’에 따르면 유튜브로 뉴스를 본다는 이용자는 53%에 달한다. 그만큼 허위정보에 노출될 위험도 커진 것이다. 데브로이 미국 MIT 미디어랩 연구팀에 따르면 ‘가짜뉴스 공유횟수는 진짜 뉴스보다 70% 많아, 가짜 뉴스가 훨씬 더 광범위하고 빠르게 전파된다’고 한다. ‘유명 유튜버 마약혐의로 기소’, ‘부산 서면역 30대 남성 칼부림 14명 중상’, 속보 기사가 뜬다. 모두 가짜 뉴스다. 뉴스 사이트를 통해 뉴스를 생성하고 다른 사람에게 공유하기까지 1분도 걸리지 않는다.

AI 딥페이크로 인한 가짜영상과 음성이 정치나 사회적 이슈가 되는 뉴스거리에서만 문제가 되는 걸까?

얼마 전 원로배우 박근형씨가 연예인 김구라씨의 유튜브 채널 인터뷰를 통해 ‘유튜브를 전혀 안 본다’고 밝혔다. 자신이 사망했다는 가짜 뉴스로 피해를 봤기 때문이라고 그 이유를 밝혔다. 가수 태진아씨가 교통사고를 당했고 KBS가 이를 보도했다는 영상은 지난해 9월 MBC 뉴스데스크의 교통사고 보도 영상을 가져다 붙여 만든 조작된 정보였다. 유력매체의 신뢰도를 이용해 조작된 정보를 진짜처럼 보이게 만든 것이다.

블룸버그통신에 따르면 서비스형 소프트웨어 기업 그래피카를 인용해 지난 9월 한 달 동안 2천 400만 명이 인공지능(AI)을 사용해 옷을 벗기는 딥페이크 웹사이트를 방문했다고 한다. 개발자는 오픈 소스 AI를 이용해 무료로 옷 벗기기 앱을 만들 수 있다. 사용자는 AI로 다른 사람의 나체 이미지를 만들어 다시 그 사람에게 보내거나 SNS를 통해 공유할 수 있다. 디지털 권리옹호단체인 일렉트로닉 프론티어 재단의 에바 갈페린 사이버보안국장은 “일반인이 일반인을 대상으로 이런 행위를 하는 일이 많아지고 있다. 고등학생, 대학생들 사이에서 이런 일이 벌어지고 있다”고 한다. 야동 속 배우의 얼굴에 합성된 미국 유명가수 ‘테일러 스위프트’의 사례는 누구도 안전하지 않다는 것을 보여준다.

딥페이크 영상제작은 모바일 앱을 통해 누구나 가능해졌다. 전 세계 1억 명 이상이 다운로드한 ‘페이스’앱은 일주일에 6,500원이면 워터마크 없는 딥페이크 이미지를 바로 생성해준다.
방송통신심의위원회에 따르면 지난해 1월부터 11월까지 국내에서 딥페이크를 통한 성적 허위 영상물에 대한 차단・삭제 요청사례는 5,996건으로 집계됐다. 2020년 473건이었던 요청건수가 13배 가까이 늘어난 것이다.

우리는 가짜를 구분할 수 있을까?

GAN(생성적 적대 신경망)을 활용해 AI가 사람의 피부뿐 아니라 머리카락까지 실제와 비슷한 이미지를 생성하는 수준에 이르러, 기술적 한계를 이미 뛰어넘은 것으로 판단되고 있다.(소프트웨어정책연구소의 안성원AI 정책연구실장의 ‘인공지능의 악용사례, 딥페이크 기술과 과제’ 보고서). 미국 UC버클리대와 영국 랭커스터대 공동연구팀의 얼굴구별 실험결과는 더욱 충격적이다. 연구팀은 223명의 실험 참가자들을 대상으로 실제 사람 얼굴 사진과 AI가 합성한 얼굴 사진이 섞인 800장의 세트에서 무작위로 128장을 뽑아 1~7점 척도의 점수로 신뢰도를 부여하게 했다. 실험결과 합성 얼굴에 대한 평균 신뢰도가 4.82로 실제 얼굴 평균 신뢰도 4.48보다 높게 나타났다. 신뢰도 상위 4개의 얼굴 중 3개는 합성 얼굴 사진이었다. 반면 신뢰도 하위 4개는 모두 실제 얼굴 사진이었다. 내가 나의 눈과 판단능력을 신뢰할 수 없는 것이다.

대안은?

로버트 버클랜드 영국 전 법무부장관은 AI가 생성한 잘못된 정보에 대해 “명백하고 현존하는 위험”이라고 했다. 브루킹스 연구소 대럴 웨스트 연구원은 AI 딥페이크를 활용한 가짜뉴스들에 대해 “완벽한 허위정보의 폭풍”이라며 “거의 모든 민주주의는 기술과 무관하게 스트레스를 받고 있으며, 여기에 허위정보가 더해지면 악용될 소지가 많아진다”라고 경고했다. 인공지능을 통해 생성된 딥페이크로 인해 새로운 위기가 나타나고 있는 것이다.

독일은 지난해 네트워크집행법(NetzDG0을 통과시켰다. 명백한 불법 콘텐츠를 신고받으면 사업자들이 24시간 내 삭제하거나 차단하도록 규정하고 있다. 만약 이를 따르지 않으면 최대 70여억 원의 과태료가 부과된다. 반면 국내 관련 법령(정보통신망법 등)에는 과태료 규정이 없다. 사업자들이 불법 콘텐츠에 소극적인 이유다.
제도와 기술이 따라가지 못하니 스스로가 가짜뉴스와 딥페이크 영상에 대한 경계심을 가져야 한다. ‘충격’, ‘경악’ 등 극단적인 표현이나 느낌표나 물음표 등의 부호가 달린 기사에는 주의하자. 출처를 확인하자. 신뢰할 수 없는 언론사라면 일단 의심하자. 주장의 근거를 확인하자. 사진이나 영상에 어색함이 없는지 주의를 기울이자. 개인이 이러한 수고를 감내해야 하는가? 어쩔 수 없는 현실이다. AI 시대에 살아가기 위해서는….