Home > 전체기사

[CSRC@KAIST 차세대보안R&D리포트] 인공지능 보안: 딥페이크와 포스트 트루스

  |  입력 : 2021-01-07 11:04
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기
허위정보 걸러내고 정보에 신뢰성과 객관성을 부여하는 것...연구자들뿐만 아니라 우리 모두의 역할

[보안뉴스= 고기혁 KAIST 사이버보안연구센터 AI보안팀장] 우리에게 다양한 편의를 가져다주는 인공지능 기술은 양날의 검과 같아서 잘못 사용하면 다양한 문제의 요인으로서 작용하기도 합니다. 실제로 인공지능을 사이버 범죄에 악용해 피싱을 보다 치밀하게 설계하거나, 해킹을 자동화하는 등 다양한 피해가 발생하고 있습니다. 이처럼 발전하는 인공지능 기술이 초래한 부작용의 대표적인 예로서 딥페이크(Deepfake)를 들 수 있을 것입니다.

[이미지=utoimage]


딥페이크란 인공지능 기술을 사용하여 합성된 미디어를 통칭하는 말로, 진짜와 구별하기 힘든 가짜 이미지, 음성이나 동영상이 이에 해당됩니다. 딥페이크는 주로 생성적 대립쌍 신경망(Generative Adversarial Network, GAN)을 사용하여 만들어지는데, 이는 생성자(Generator)와 감별자(Discriminator)라 불리는 서로 다른 두 신경 네트워크가 서로 경쟁하면서 상반된 목표를 달성해 나가는 구조를 가집니다.

일례로 가공의 사람 얼굴 이미지를 합성하고자 할 때, 생성자는 주어진 노이즈로부터 얼굴 이미지를 합성하고, 감별자는 생성자가 합성한 이미지를 보고 실제 사람인지 아니면 가짜로 합성된 얼굴인지를 판별하고자 합니다. 이 때 생성자는 감별자를 더 잘 속이고자 하며, 감별자는 생성자가 생성한 이미지를 더 잘 구별해 내기 위하여 경쟁하는 것입니다. 이 같은 상호작용을 두고 생성적 대립쌍 신경망의 원 고안자인 이안 굿펠로우(Ian Goodfellow)는 생성자를 위조지폐범에, 감별자를 경찰에 비유했다고 합니다.

상반된 목표를 가진 개체들 간의 반복적인 경쟁을 통해 성능을 향상시키는 방식은 지난 2016년 바둑계를 들썩이게 한 인공지능 딥마인드 알파고의 후속주자, 알파고 제로에도 사용된 방법입니다. 알파고 제로는 스스로와의 반복적인 대국을 통해 훈련을 거듭한 결과 40일 만에 알파고와의 대국에서 100전 100승을 거둘 만큼 실력을 키울 수 있었다고 합니다. 이와 유사하게 생성적 대립쌍 신경망에서는 제로섬(Zero-Sum) 게임 상황에서 생성자와 감별자의 반복적인 경쟁을 통하여 성능을 끌어올려 감별자뿐만 아니라 사람까지도 구분하기 어려운 딥페이크 미디어를 만들 수 있게 되는 것입니다.

잘 알려져 있듯 딥페이크는 유명인의 얼굴을 합성하여 포르노를 제작한다던지, 특정 개인의 목소리를 모사하여 누군가를 속이는 데에 사용되는 등 대부분 사회적으로 바람직하지 않은 방향으로 활용되고 있습니다. 반면, 딥페이크 미디어가 반드시 해만 끼치는 것은 아닙니다. 딥페이크 기술을 영화 및 게임 제작에 활용해 보다 자연스러운 컴퓨터 그래픽을 개발하고, 프라이버시 보호를 위해 다큐멘터리 출연자의 얼굴을 가상의 얼굴로 대체하는 데에도 사용되고 있으며, 새로운 미술 및 음악 스타일을 선보이는 등 다양한 시도가 이루어지고 있습니다.

딥페이크 미디어는 인공지능 기술의 잘못된 활용이 사회에 큰 해를 끼칠 수 있다는 것뿐만 아니라, 앞으로 우리가 살아갈 미래의 미디어에 대해서도 많은 점을 시사하고 있습니다. 정보가 넘쳐나는 사회에서 더 이상 무엇이 진짜인지를 판단하기 어려워진다는 점이지요. 2019년 MIT Center for Advanced Virtuality에서 만든 짧은 딥페이크 다큐멘터리 영화 ‘In Event of Moon Disaster’는 이 점에 대해 명확히 일깨워 줍니다.

In Event of Moon Disaster는 1969년 아폴로 11호의 달 착륙이 실패해 세 명의 우주인들이 지구에 돌아오지 못하게 되었을 경우, 리처드 닉슨 미국 대통령이 국민들을 대상으로 낭독할 예정이었던 동명의 연설문을 바탕으로 만들어진 다큐멘터리입니다. 아폴로 11호가 무사히 달 착륙에 성공하였기에 해당 연설문은 읽히지 않았지만, 이 짧은 영상에서는 딥페이크 기술을 이용하여 닉슨 대통령의 입모양과 표정, 목소리와 말투까지 모사해 연설문이 실제로 읽혔던 것처럼 재현해 내었습니다.

만약 딥페이크 기술이 아폴로 11호가 발사된 1969년에 개발되어 당시에 누군가가 위와 같은 영상을 악의적으로 제작하고 배포했다면, 과연 어떤 것을 믿어야 할까요? 또한, 만약 먼 미래에 달 착륙과 관련된 모든 정보가 상실되고 이 영상만 남는다면, 먼 미래에는 1969년에 달 착륙에 실패했었다고 생각하게 될까요? 이처럼 많은 흥미로운 질문을 던지게 해주는 이 영화는 딥페이크와 인공지능 기술이 미래의 미디어에 미칠 영향에 대해 시사하는 동시에 미디어의 소비자인 대중들에게 정보의 무차별적인 수용은 바람직하지 않다는 것을 강조하기 위해 제작되었다고 합니다.

▲고기혁 카이스트 사이버보안연구센터 AI보안팀장[사진=보안뉴스]

위 영화의 제작자들이 가정한 미래 상황과 같이, 사람이 식별할 수 없는 허위정보가 난무하거나 진위를 가리는 기준이 객관적이지 않고 주관적으로 바뀌어 더 이상 어떤 것이 진실인지, 어떤 것이 가짜인지를 판단하기 어렵게 되는 현상을 포스트 트루스(Post-truth), 혹은 탈진실 현상이라고 합니다. 현대인은 손 안의 기계를 통해 많은 경우 편향된 정보를 접하고 있으며, 과학적인 검증보다는 자신의 경험을 우선시하여 판단하기에 이미 포스트 트루스 시대에 살고 있다는 분석이 나올 만큼, 우리 주변의 정보들에 대한 재고찰이 필요합니다.

이처럼 포스트 트루스 시대에 올바른 판단을 하기 위해서는 매일 접하는 정보에 대해 철저히 검증하는 보안적인 마음가짐이 필요합니다. 특히, 인공지능으로 생성되는 악의적인 딥페이크 미디어를 구별하고 검증하는 일은 정보에 객관성을 부여한다는 점에서 매우 중요한 작업일 것입니다. 허위정보를 걸러내고 정보에 신뢰성과 객관성을 부여하는 것이야말로 인공지능과 보안을 연구하는 연구자들뿐만 아니라 정보를 소비하는 우리 모두의 역할일 것입니다.
[글_ 고기혁 KAIST 사이버보안연구센터 AI보안팀장]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기

  •  SNS에서도 보안뉴스를 받아보세요!! 
넷앤드 파워비즈 진행 2020년1월8일 시작~2021년 1월8일까지위즈디엔에스 2018파워비즈배너 시작 11월6일 20181105-20200131
설문조사
보안전문 기자들이 뽑은 2021년 보안 핫키워드 10개 가운데 가장 관심이 높은 키워드는?
민간인증서부터 융복합인증까지, 인증의 시대 열린다
랜섬웨어 공격, ‘불특정 다수’에서 ‘표적형’으로 진화
데이터 프라이버시가 기업들의 목을 죈다
재택근무와 주 52시간 근무제, 오피스 보안 ‘혁신’ 예고
영상·음성까지 합성 ‘딥페이크’, 비대면 사회 침투하나
의료·제약 분야, 코로나19 다음은 해커
스마트공장 구축은 OT/ICS 보안 정립부터
드론, 융합보안 산업의 핵심 아이템이 되다
몸집 키운 ADT캡스-에스원 대격돌, 보안시장 지각변동
CCTV 시스템온칩 대란, 중소기업 생존까지 위협