목소리와 얼굴도 카피하는 시대

  • 기자명 지윤성 기자
  • 기사승인 2017.07.24 17:34
이 기사를 공유합니다

가짜 뉴스 생산에 악용될 수 있는 기술이 급격하게 발전하고 있다. 이로 인해 가짜와 진짜를 사실상 구분하기 힘든 시대로 접어들었다는 우려가 커지고 있다. <뉴스톱>은 세계 주요 IT기업이 발표한 이미지 및 음성 조작 기술을 소개하고 이같은 기술 발전이 주는 시사점에 대해 논의해보고자 한다. 

 

가짜 뉴스란 무엇인가

뉴욕타임스가 정의한 가짜 뉴스(fake news)는 "속이기 위한 의도를 가지고 구성된 스토리"다. 오늘날 뉴스업계가 직면한 가장 심각한 도전 중 하나로 여겨진다. 미국 퓨 리서치센터 여론조사에서 미국 성인의 64 %는 "가짜 뉴스가 사실관계에 많은 혼란을 야기했다"고 답했다.

이처럼 가짜 뉴스의 범람으로 독자들은 혼란을 느끼고 있다. 전통적으로 언론은 좋은 뉴스를 생산하는 것을 책임이자 의무라고 생각했다. 하지만 여기에 더해 다른 뉴스의 진실성을 평가하는 일까지 맡아야 하는 어려움에 처해 있다. 

 

가짜 뉴스 생산비용은?

가짜 뉴스 확산 이유중 하나는 생산비용이 아주 저렴하다는 점이다. 대중에게 잘못된 인식을 심어주고, 실제 움직이게 하는데 수천만원에서 수억원이면 충분하다. 개인에게는 큰 돈이지만, 특정한 목표(선거 당선)를 수행하기 위해 돈을 쓰는 정치인이나 단체 입장에서는 푼돈이다.  MIT 테크놀로지 리뷰 (MIT Technology Review)의 기사에 따르면 5만5000달러 (약 6140만원)면 언론인 한 명을 나락으로 보낼 수 있고. 20만달러 (2억2340만원)를 쓰면 길거리 시위를 선동할 수도 있다. 트럼프 대통령은 지난 대선에서 총 322만달러 (약 3700억원)을 캠페인 비용으로 사용한 바 있다. 

인터넷에는 몇 백달러면 가짜뉴스를 만들어 확산시켜 준다는 브로커들이 등장했다. 가짜 뉴스를 생성한 뒤 소셜네트워크를 이용해 서로 참조하게 함으로써 여론을 선동하는 방법은 매우 저렴하면서도 강력하다. 일반인도 쉽게 이런 브로커에 접근할 수 있다. 반면 이를 막을 기술은 아직 충분히 발전하지 못했으며 사회적 비용이 높다는 것이 문제다. '열 경찰이 한 도둑 못잡는다'는 격언처럼 가짜 뉴스를 확산시키기는 쉬워도 이를 적발하고 차단하는 것은 쉽지 않다. 적지 않은 사람들이 돈벌이를 위해 가짜뉴스를 온라인 상에 퍼나르고 공유하는 일에 자발적으로 고용되고 있다는 점도 문제다. 그래서 옵저버 기사는 가짜뉴스의 확산을 막을 방법이 쉽지 않다는 점을 지적하고 있다. 소셜미디어를 활용한 뉴스 콘텐츠의 생산과 확산에 이용되는 플랫폼을 기술적으로 제어하기 어렵다는 것이다. 

 

고전적인 가짜 뉴스 기법들

가짜 뉴스를 구분하기 힘든 이유는 가짜 뉴스 사이트가 전통 미디어들이 이용하는 뉴스 형식과 유통경로를 그대로 차용하기 때문이다. 과거 뉴스미디어들은 자체 사이트나 포털을 이용해 뉴스를 확산시켰으나 최근엔 페이스북 등 소셜미디어가 가장 큰 뉴스의 유통경로로 활용되고 있다.

가짜 뉴스 사이트는 두 개의 팀으로 구성되어 있다. 진짜 뉴스 미디어에서 생산한 것처럼 보이도록 형식이나 디자인 등을 차용해 생산하는 팀과 이를 소셜미디어 상에 퍼나르는 팀이다. 가짜 뉴스의 형식은 온라인 기사, 지면 기사, 잡지 표지, 유튜브 동영상 등 다양하며 대상은 유명 정치인이나 사람들이 크게 관심을 보이는 음모론이다.

아래 이미지를 보자. 젊은 시절 힐러리 클린턴이 외계인 아이를 입양했다는 뉴스를 잡지 커버인 것처럼 이미지를 편집했다. 사진에는 'official photo'라는 텍스트를 넣어 진짜로 보이게 했다. 하지만 조금만 시사에 관심이 있는 사람이라면 이 이미지가 가짜인 것을 금방 눈치챌 수 있다.

아래 사진은 힐러리 클린턴 전 국무장관이 이슬람국가(ISIS)에 무기를 팔았다는 사실이 위키리크스 폭로로 밝혀졌다는 폴리티컬 인사이더(Political insider)의 기사다. 이 기사는 가짜로 판명됐으며 페이스북에서 가장 많이 공유된 가짜뉴스 2위에 꼽히기도 했다. 그러나 아직도 인터넷을 검색해보면 이런 내용이 진짜인 것처럼 작성된 기사가 수없이 발견된다. 

폴리티컬 인사이더는 보수 성향이 강한 온라인 뉴스미디어다. 심지어 가짜 뉴스 사이트로 분류되지 않는다. 위키리크스가 폭로한 내용이 방대하기 때문에 이를 확인하기 힘들다는 점을 악용해 의도적으로 '가짜 뉴스'를 생산한 것으로 추정된다. 이 기사처럼 유명한 기관이나 석학을 거짓으로 인용하면 효과는 배가 된다.

 

가짜 뉴스의 성지급인 Political Insider : 위크리크스가 힐러리 클린턴 전 국무장관이 ISIS에 무기를 판매 했다는 사실을 폭로했다는 가짜 뉴스, 이걸 퍼나른 국내 언론사들도 있었다.

트위터나 페이스북 등 소셜미디어상의 이미지를 조작해 가짜뉴스를 생산하는 일도 비일비재하다. 아래 이미지는 콜롬비아의 가수 후아네스가 반군과의 평화협상에 반대하는 글귀가 적힌 티셔츠를 입고 찍은 사진이다.  후아네스는 이것이 조작된 것이라고 밝혔다. 

 

콜럼비아 출신 유명 라틴 가수 후아네스가 입은 흰색 셔츠위에 “반군과의 평화 협상에 반대한다”는 글씨를 합성하여 유포한 사례

국내에서도 종종 발생한다. 개그맨 김미화씨는 7월 10일 본인의 이미지를 합성해 이른바 종북몰이를 한 네티즌에 대해 수사의뢰를 했다. 제주 강정마을을 지지하는 피켓을 든 사진이 북한을 지지하는 사진으로 둔갑해 인터넷에 유포되었기 때문이다. 

 

김미화씨가 북한을 지지하는 것처럼 조작된 사진이 인터넷에 유포되지 이를 캡처한 트위터

동영상을 이용한 가짜뉴스도 성행하고 있다. 권위 있는 기관이 발표한 것처럼 보이는 유튜브 동영상을 만들어 올리고 이를 인용해 가짜뉴스를 유포시키는 것이다. 아래의 동영상은 미 항공우주국 (나사)이 필리틴 대통령 두테르테가 "태양계 최고의 대통령"이라는 발표를 했다는 가짜 영상이다. 필리핀 언론은 동영상을 근거로 이 내용을 기사화했다.

 

 

NASA가 태양계 최고의 대통령감은 두테르테라고 칭송 했다는 가짜 뉴스, 필리핀도 가짜 뉴스 때문에 골치를 앓고 있다.

 

"목소리도 조작한다" 어도비사의 '보코'

위에서 본 사례는 그나마 육안으로 확인할 수 있는 가짜 뉴스다. 합성된 이미지는 조악하며, 인용된 자료는 출처가 불분명하다. 동영상 역시 권위자가 나와 설명하지 않는다. 그러나 만약 누구나 알만한 유명인의 목소리가 직접 등장한다면 어떻게 될까?

다음 동영상을 보자

위의 기술은 IT기업 어도비(Adobe)에서 추진중인 보코 (Voco)라는 소프트웨어다. 어도비 포토샵이 사진합성 기술을 개척했다면, 보코는 오디오 합성의 새 시대를 열 것이다. 영화 미션 임파서블의 목소리 변조가 현실화되는 것이다. 포토샵이 의도치 않게 가짜 뉴스 이미지 생산에 상당한 기여를 한 것처럼 보코 역시 가짜 음성 생산에 큰 역할을 할 것으로 우려된다. 

TTS(Test to Speech) 기술은 문자를 음성(말)로 바꾸어 주는 기술이다. 보코는 여기에 더해 특정인의 음성을 완벽하게 샘플링해 넣을 수 있다. 샘플이 충분히 확보되면 어떤 음성도 조작이 가능하다. 예를 들면 문재인 대통령의 연설 음성을 내가 원하는 내용으로 바꿀 수 있다는 것이다. 대통령은 대중에게 연설하는 일이 많기 때문에 샘플을 구하는 것은 일도 아니다. 영국 BBC는 이 기술에 대하여 “잠재적인 오용으로 인한 윤리적 딜레마를 무시했다”고 평가했다. 가짜 뉴스 생산에 의도치 않게 기여함으로서 저널리즘에 대한 신뢰를 약화시킬 수 있는 기술로 판단한 것이다. 

이 기술은 음성녹음이 증거로서 혹은 개인을 식별하는 기본 자료로서 활용되는 기존 관행을 한순간에 무너뜨릴 수 있어 파장이 커질 전망이다. 어도비는 귀로 들어서는 알 수 없지만 기계로 분석하면 미세하게 표시가 나는 일종의 워터마크 기능을 넣겠다고 하지만, 이 또한 해킹이 가능할 것으로 예상된다. 보코는 현재 베타테스트 중이며 곧 출시될 전망이다. 

구글의 딥마인드(Deepmind) 사업부 역시 이와 비슷한 음성모방 기술인 웨이브넷(Wavenet)을 선보였다. 

 

"목소리만 있으면 영상도 만든다" 워싱턴 대학교의 비디오 생성기

위의 사례가 음성의 조작 가능성을 열었다면 아래는 발화자 자체를 조작할 수 있는 가능성을 연 기술이다. 

다음 동영상을 보자

미국의 워싱턴대학교 연구팀이 개발중인 기술이다. 오바마 대통령(Barack Obama)이 나란히 있는 두개의 영상 클립을 볼 수 있다. 왼쪽에 있는 것은 음성의 출처이고 오른쪽에 있는 것은 음성을 기반으로 만든 연설 영상이다.

왼쪽에서 얻어온 음성을 가지고 전혀 다른 영상인 오른쪽의 오바마 대통령 입모양을 인공지능 신경망 알고리즘을 활용하여 디지털 변형하여 동기화하는 기술이다. 다른 사람의 목소리를 다른 사람의 모습에 매핑할 수 있는 확장성을 가지고 있다. 언론에서는 역시 가짜 뉴스에 악용될 가능성을 우려하고 있다.

위 두 개의 기술이 합쳐진다면 어떻게 될까. 내가 말한 적 없는 발언이 내 목소리로 조작되어 생성되며 그 발언이 진짜인 것처럼 동영상까지 만들어질 수 있다. 이렇게 정교하게 만들어진 가짜 뉴스 동영상이 유포되고, 그 대상이 유력 정치인이라면 파장은 엄청날 것이다. 미 트럼프 대통령이 북한에 선전포고를 하는 가짜 뉴스 동영상이 유포되는 것을 상상해보자. 한국의 주가는 폭락하고 외국인들은 출국러시를 할 것이며 그 와중에 누군가는 주식을 매입해 큰 이익을 얻을 것이다. 가짜와 진짜를 구분할 수 없는 시대, 장 보드리야르의 '시뮬라시옹'이 현실이 되고 있다.  

미국 대선이 가열되던 2016년 11월21일 특정 뉴스 사이트에 오노요코와 힐러리 클린턴의 레즈비언 관계를 다룬 가짜 뉴스 옆에 크라이슬러의 광고가 게재됐다.

언론사 콘텐츠 얼마나 신뢰할 수 있나

플랫폼이 다변화하더라도 결국 뉴스 콘텐츠 기업의 주요 수익원은 광고가 될 수밖에 없다. 트래픽을 올리기 위해 자극적인 가짜 뉴스를 이용하는 행태는 가짜 뉴스 사이트만 쓰는 방법이 아니다. 앞에 보여준 폴리티컬 인사이더처럼 멀쩡한 뉴스사이트도 가짜뉴스를 만드는데 일조하고 있다. 지난 대선 한국언론은 국민의당의 문준용씨 가짜 제보 사건을 팩트체킹없이 보도해 가짜 뉴스 논란을 자초했다. 플랫포머로서의 지위를 잃고 콘텐츠 소매상으로 전락한 뉴스 콘텐츠 미디어의 선택지는 많지 않다. 언론은 선택을 해야한다. 트래픽을 위해 가짜뉴스 생산도 서슴치 않는 가짜 언론이 될 것인가, 아니면 팩트체킹에 충실한 진짜 언론이 될 것인가. 

기술 발달로 가짜 뉴스를 보다 정교하게 만들 수 있게 되었다. 사람은 읽은 것보다 눈으로 본 것을 더 신뢰하는 경향이 있다. 음성마저 조작된 정교한 동영상 뉴스가 유포되기 시작된다면 사람들은 큰 혼란을 느낄 것이다. 뉴스 전반에 대한 신뢰도는 더 하락할 것이며 특정 브랜드에 대한 충성도는 높아질 것이다. 가짜 뉴스를 판별해내는 전문가 집단인 '팩트체커'의 역할도 더 커질 수밖에 없다.

'가짜뉴스 특이점'을 넘어설까

4차산업혁명이 뜨면서 기술적 특이점(Technological Singularity)이란 단어가 최근 주목을 받고 있다. 기술적 특이점이란 테크놀로지, 특히 인공지능이 초인공지능으로 진화해 인류 문명의 전체 지능보다 더 뛰어나게 되는 시점을 의미한다. 버너 빈지 (Vernor Vinge)가 1993년 처음 사용한 용어로 알려져 있다. 특이점이란 발전이 크게 이뤄져 되돌릴 수 없는 지점, 혹은 기존의 방식이 더이상 통하지 않는 지점을 의미한다. 기술적 특이점에 도달하면 인류문명은 새로운 차원으로 도약할 것이라는 낙관적 전망과, 영화 터미네이터처럼 기계의 반란으로 몰락하게 될 것이란 디스토피아적 전망이 공존하고 있다. 

최근 출시되는 기술을 보면 '가짜뉴스 특이점 (Fake news Singularity)' 을 곧 넘어설 것이란 우려가 든다. 더 이상 원본과 가짜의 구분이 불가능한 시뮬라시옹 시대의 도래는 수없이 많은 현실적 문제와 윤리적 딜레마를 낳을 것이다. 가짜 뉴스를 구별해내는데 많은 돈과 시간용이 필요하며 그로 인한 혼란 역시 사회적 비용이 될 수밖에 없다. 

뉴스 콘텐츠와 소비자의 최초 접점이 소셜미디어로 집중되면서 언론사, 소셜미디어, 플랫포머, 소프트웨어 기업, 연구소, 뉴스 소비자가 뉴스의 생산에서부터 배포, 소비에 이르기까지 초연결(Hyper Connectivity) 된 사회가 도래했다. 가짜 뉴스는 이를 생산하는 언론의 책임이 가장 크지만, 나머지 참가자들도 일정부분 책임을 져야한다. '가짜뉴스 특이점'이 눈앞에 있는 지금, 머리를 맞대고 앞으로의 대책을 모색해야 한다.  

 

이 기사를 공유합니다
오늘의 이슈
모바일버전