Home > 전체기사 > 외신
[주말판] 허위 정보와 가짜뉴스, 인공지능으로 근절될까?
  |  입력 : 2020-10-03 15:54
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기
가짜뉴스와 허위 정보, 인공지능 타고 빠르게 퍼져...파괴력도 막강한 수준
이를 막는 것도 인공지능...하지만 아무리 방어 잘하는 인공지능이라도 문제 해결 못 해


[보안뉴스 문가용 기자] 허위 정보를 퍼트리는 사람의 의도는 명확하다. 진실이 아닌 것을 알면서도, 사람들이 믿어주기를 바라는 것이다. 보다 쉬운 말로 ‘거짓말’이 있다. 우리는 선거에 돌입하는 시즌에 이 거짓말을 자주 보게 된다. 하지만 최근에서처럼 조직적이고 광범위하게 거짓말이 퍼지는 경우는 없었다. 그리고 인공지능의 개발로 이 허위 정보 캠페인은 더 빠르고 위협적으로 변하고 있다.

[이미지 = utoimage]


‘인공지능’과 ‘허위 정보 퍼트리기’를 연결시키는 건 바로 자연어 처리 및 생성 알고리즘의 발전이다. 이 때문에 정치적 성향 혹은 목적성을 띈 허위 정보가 더 빠르고 넓게 퍼져갈 수 있게 된다. 지난 미국 대선 때 러시아의 ‘트롤 군단’이 조직력으로 소셜 미디어를 장악해 가짜 정보를 퍼트렸다면, 지금은 인공지능을 기반으로 한 자연어 생성 알고리즘(NGL)이 놀라울 정도로 강력한 도구가 되고 있다. 특히 오픈에이아이(OpenAI)에서 개발한 GPT-3이 정치적 허위 정보를 꽤나 많이 생성하는 중이다.

GPT-3는 지난 5월 처음 등장한 것으로 현재는 오픈베타 상태에 있다. 수많은 형태의 자연어 텍스트를 생성할 수 있는데, 개발자들에 의하면 1750억 개의 매개변수를 활용해 인간이 만든 것과 같은 텍스트를 거의 아무런 제한 없이 창작해낼 수 있다고 한다. 이 알고리즘은 텍스트 생성이라는 측면에서 얼마나 다양한지, 기술 문서는 물론 시와 단편 소설, 노랫말까지 지어낼 수 있다.

이러한 NLG를 활용한 허위 정보 퍼트리기의 장점은, 시간의 구애를 받지 않고 대중들의 생각 속에 그럴 듯한 거짓을 심을 수 있다는 것이다. 만약 후보자간의 경합이 팽팽한 상태라면 인공지능의 아주 작은 개입이 큰 차이를 낼 수 있다. 유권자가 스스로 ‘내가 접한 정보가 잘못된 것이었구나’를 깨닫기 전에 선거가 치러질 수 있도록 타이밍을 조절하는 것도 가능하다. 비슷하게 판결에 중요할 수 있는 기밀을 ‘실수로’ 흘리는 것처럼 해서 배심원들의 심리에 영향을 주는 것도 얼마든지 일어날 수 있는 일이다.

인공지능으로 허위 정보를 탐지할 수 있을까?
GPT-3만으로도 부족한지, 최근 마이크로소프트가 NLG 모델들을 효과적으로 훈련시킬 수 있는 도구를 개발해 발표하기도 했다. 이 도구를 통해 NLG에 최대 1조 개의 매개변수들을 활용할 수 있게 된다고 하는데, 이는 GPT-3이 현재 사용하는 것보다 수배 많은 숫자다. 즉, 더 정교하고 진짜 같은 텍스트를 다채롭게 생성할 수 있다는 뜻이다.

다행히도 이런 기술의 발전에 발맞춰, 인공지능이 만든 텍스트(허위 정보)로 의심되는 것들에 경고 메시지를 띄우는 기술도 발전하고 있다. 알고리즘이 만든 정치적 의견들 역시 어느 정도 탐지되고 있다. 이런 탐지 기술에도 인공지능이 활용되고 있다. 예를 들어 구글은 인공지능 보고서를 통해 온라인 콘텐츠(텍스트, 영상 등)에서 가짜와 허위 정보를 점점 더 높은 확률로 파악해 낸다고 발표했었다.

NLG가 GPT-3와 같은 오픈소스 도구들 덕분에 보다 광범위하게 허위 정보 캠페인에 사용되고 있다면, 딥페이크(deepfake) 기술을 활용한 가짜 정보 퍼트리기는 아직은 제한적이고 드물다. 하지만 딥페이크가 가진 설득력이 워낙 파괴적이라 딥페이크에 대한 경계심도 늦출 수 없다. 그렇기 때문에 실리콘밸리의 거인들이 딥페이크 탐지에 너도 나도 나서는 것이다. 몇 가지 사례는 다음과 같다.

1) 작년 구글은 유료로 배우들을 고용해 딥페이크 영상을 만들고 데이터베이스를 구축했다. 이를 활용할 경우 인공지능 기반 딥페이크 영상들을 보다 효과적으로 탐지할 수 있게 된다고 한다.
2) 페이스북은 올해 초 영상 선명도나 질을 높이기 위한 목적의 단순 편집 및 합성을 넘어, 누군가에게 잘못된 정보를 전달하려는 목적으로 제작된 영상을 전부 지우겠다고 발표하기도 했었다. 작년에는 인공지능으로 조작한 영상을 10만 개 이상 공개해 개발자들의 탐지 기술 개발을 돕기도 했다.
3) 트위터도 작년 딥페이크 기술로 제작된 미디어 중 조작의 정도가 너무 심하고, 악의적 목적 혹은 사기성이 짙은 것들을 삭제하겠다고 발표했다.
4) MS도 최근 새로운 딥페이크 탐지 도구를 개발해 인공지능재단(AI Foundation)의 리얼리티 디펜더(Reality Defender)에 제출했다고 발표했다. 이 도구는 마이크로소프트 비디오 오센티케티터(Microsoft Video Authenticator)이다.

리얼리티 디펜더는 3년 전 창립된 단체로 특히 정치적 목적을 가진 합성 미디어(딥페이크 미디어)를 거둬내겠다는 목적을 가지고 운영되고 있다. 현재 소비되고 있는 정치적 콘텐츠물의 무결성을 확인해 후보 진영과 언론, 유권자 등에 알리는 역할을 담당한다. 또한 기자들이 특정 영상을 업로드 해 확인을 요청할 경우, 이를 분석해 주기도 한다. 상세 보고서를 만들어 제공한다.

디지털 허위 정보를 근절시키기 위해 만들어진 이니셔티브로는 콘텐트 오센티시티 이니셔티브(Content Authenticity Initiative)도 있다. 작년에 설립된 디지털 미디어 컨소시엄으로, 디지털 미디어 크리에이터들에게는 저작권을 주장하게 하고, 소비자들에게는 열람 중인 미디어의 진본성을 확인시켜 주는 도구를 제공하고 있다. 이 이니셔티브를 이끌고 있는 건 어도비(Adobe)이고, 뉴욕타임즈와 트위터 등이 참여하고 있다. 이들은 디지털 워터마킹의 표준을 정립하고 있으며, 이를 통해 콘텐츠의 진본성을 보다 확실하게 나타낼 수 있도록 할 계획이다. 이를 ‘프로젝트 오리진(Project Origin)’이라고 한다.

허위 정보와 가짜뉴스는 정복될 것인가?
이런 통합적인 노력이 있으면 허위 정보도 언젠가 근절될 수 있지 않을까? 그러나 지나친 희망은 금물이다. 보안에서 해커와의 전쟁을 통해 항상 볼 수 있듯, 방어책이 생기면 공격자는 그것을 뚫어내고, 그걸 보완하면 다시 뚫어내는 식의 일이 반복된다. 즉 한 번에 모든 허위 정보를 탐지해 뿌리까지 뽑아낼 수는 없다는 것이다. 게다가 인공지능이라는 것이 끊임없이 학습하여 더 정교해지는 기술 아닌가? 앞으로 인공지능 기술은 공격과 방어 양쪽에서 더 날카로워질 것이 분명하다.

게다가 어떤 사람들에게 있어 ‘진실’은 그리 큰 가치를 갖고 있지 않다. 기술이 어떻게 발전하든 믿고 싶은 것을 믿어버리는 그들의 속성은 변하지 않을 것이다. 그리고 그 속성은 누구에게나 어느 정도 존재한다. 망상이나 착각은 자기순환을 통해 영구 발생하려는 특성을 가지고 있는데, 그렇기 때문에 가짜뉴스를 만들거나, 그것에 한 번 빠져봤던 사람은 어떤 방어막을 쳐줘도 계속해서 가짜뉴스에 손을 댄다. 솔직히 기술로서의 허위 정보 근절이라는 게 현실 가능한 목표인 건지 회의가 들 정도다. 따라서 그 목표는 불필요하게 가짜뉴스에 걸려드는 사람들을 위한 것이어야 할 것이다. 아무리 최첨단 기술을 개발해도 누군가는 가짜뉴스를 멋대로 믿고 퍼트릴 것이다.

지금 우리는 거짓이 가득한 세상에 살고 있다. 특히 정치 분야에서는 이것이 유독 심하게 나타난다. 권력을 잡기 위해 - 잡은 후라면 거짓말을 해도 용서가 되도록 만들 수 있으니까 - 뻔뻔한 거짓말을 반복적으로 만들어낸다. 굳이 인공지능이 없더라도 그들은 능숙하다. 그러므로 정보를 접하는 사람들 누구에게나 ‘사실 확인’의 의무가 있다. 거짓말을 만들어내는 사람이 나쁜 건 자명한 사실이다. 하지만 우린 그들이 그 거짓말로 권력을 갖도록 하고 있는 사회적 시스템 내에서 살고 있다. 근거야 어찌됐든 믿고 있는 사람에게 표를 주니까 말이다.

그렇기 때문에 내가 지지하는 사람이므로 무조건 믿는다는 것도 심각한 책임 회피가 된다. 코로나 음모론이 뜨고, 백신 회피자가 생기며, 기후 변화도 거짓말이라고 주장하는 사람들이 생기는 것도 사실 확인이라는 절차를 무시했기 때문이다. 이런 사람들은 과학적 근거를 가져다 대도 자신들의 믿음을 꺾지 않는다. 그런 사람들이 있어 가짜뉴스가 생기고 허위 정보 캠페인이 효력을 발휘하는 건데, 과연 인공지능 알고리즘 몇 개로 모두가 정직하고 올바른 정보를 유통하는 날이 올 수 있을까?

그런 극단주의자들에게는 인공지능이 100% 정확하게 가짜 정보를 탐지해 딱지를 붙이는 것도 별 소용이 없다. 그들은 ‘가짜뉴스’라는 표가 붙어 있어도 해당 뉴스나 영상물을 다 본 뒤, 가짜뉴스를 붙인 인공지능이 잘못 되어 있다고 주장할 것이다. 딥페이크라고 조목조목 분석한 내용을 공개해도 반드시 꼬투리를 찾아내고 결과를 부정할 것이다. 인공지능이 악마라는 음모론도 등장할 것이다. 요즘 말로 ‘피의 쉴드’를 치기 위한 주장이 특정 언론사들을 통해 나오는 일이 허다할 것은 불을 보듯 뻔하고, 이걸 지지자들이 앞뒤 가리지 않고 실어 나를 것도 마찬가지다.

결국 프레임에 눈에 먼 것이 문제라는 건데, 이럴 때는 현존하는 그 어떤 기술도 그들을 치료할 수 없게 된다. 하지만 프레임에 잘 빠져드는 사람들을 보면 세상을 보는 눈이 매우 좁다는 공통점을 가지고 있다. 또한 자기가 옳다는 신념이 강하다. 그러므로 미리미리 세상을 보는 넓은 눈을 키워주고 의견을 조율하는 법을 익히게 하는 것이 오히려 더 빠르고 효과적인 치료 방법일 수도 있다. 인공지능이 할 수 있는 일은 극히 한계적이다.

따라서 필자는 인공지능 기술 개발을 통한 가짜뉴스 적발 및 허위 정보 억제 노력이 전혀 무의미하지는 않겠지만, 문제의 극히 일부분만을 다루는 행위라고 생각한다. 즉 인공지능이 소셜 미디어를 통해 퍼지는 허위 정보를 제거한다고 해도, 선거 결과가 다르게 나온다거나 여론이 아름답고 공명정대하게 형성될 거라고 기대하지는 않는다는 것이다. 우리가 사실(fact)을 몰라서 제각각의 주장을 하는 게 아니다. 사실에 대한 해석이 달라서 그런 것이다. 인공지능이 사실에 대한 해석까지 해줄 수는 없는 노릇이다.

글 : 제임스 코비엘루스(James Kobielus), 분석가이자 컨설턴트
[국제부 문가용 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기


  •  SNS에서도 보안뉴스를 받아보세요!! 
그린존시큐리티 4개월 배너모니터랩 파워비즈 6개월 2020년6월22~12월 22일 까지넷앤드 파워비즈 진행 2020년1월8일 시작~2021년 1월8일까지위즈디엔에스 2018파워비즈배너 시작 11월6일 20181105-20200131
설문조사
최근 잇따른 기밀 유출 사건으로 인해 종이유출차단방지(출력물) 보안 솔루션의 도입 필요성이 높아지고 있는데요. 해당 솔루션 도입을 위한 비용은 어느 정도가 적정하다고 보시나요?
2천만원 이하
5천만원 이하
1억원 이하
1~2억원 이내
2억원 이상