Home > 전체기사
얼굴 인식 기술에 대항하는 얼굴 인식 방해 기술 개발돼
  |  입력 : 2020-07-10 15:33
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기
얼굴 인식 알고리즘, 사법 기관과 각종 딥페이크 공격 등에 활용 가능해
프라이버시 침해 논란 끊이질 않아...이에 얼굴 인식을 방해하는 기술마저 등장


[보안뉴스 문가용 기자] 얼굴 이미지를 대량으로 저장하고 있는 데이터베이스를 활용해 용의자 식별하기. 딥페이크 기술을 사용해 누명 씌우거나 평판 깎기. 얼굴 인식 기반 보안 장치를 무사통과 하기. 얼굴 인식 기술과 관련된 실제 적용 사례들이 계속해서 나오고 있고, 이 때문에 프라이버시가 심각하게 침해될 위험에 처해 있다는 전문가들의 목소리가 끊이질 않는다.

[이미지 = utoimage]


그래서 최근 학계에서는 특정 얼굴 인식 알고리즘을 얼마 간 방해할 수 있는 방법을 개발해냈다. 싱가포르국립대학(NUS)의 컴퓨터 과학 전문가 팀이 지난 주 발표한 것으로, 사람에게는 눈에 띄지 않는 수준에서 얼굴 이미지를 변경시킴으로서 기계가 오류를 내도록 하는 방식이라고 한다. 이 연구에 참여한 모한 칸칸할리(Mohan Kankanhalli) 교수는 “원리상 다른 머신러닝 알고리즘도 공격할 수 있는 기술이지만, 실험실에서 개발한 것은 특정 얼굴 인식 알고리즘에만 적용되는 것”이라고 논문을 통해 밝혔다.

또한 “아직 모든 알고리즘에 통용되는 건 아니”라고도 덧붙였다. “지금은 방해하고자 하는 알고리즘에 대해 알아야만 방해 알고리즘 혹은 적대적 알고리즘을 만들 수 있습니다. 이를 모든 머신러닝 알고리즘에 적용 가능하도록 보편화시키는 작업을 지금 진행 중에 있습니다. 그러나 분명 쉽지 않은 작업이고, 시간이 좀 더 걸릴 것으로 예상하고 있습니다.”

따라서 이번 연구 결과는 그 자체로 완성형은 아니다. 다만 얼굴 인식 알고리즘이 악용되는 것을 기술적으로 막을 방법이 존재한다는 가능성을 제시했다는 점에서 의미를 가지고 있다. 이 기술을 ‘필터’의 한 종류로 만든다면, 사진이 누군가의 머신러닝에 분석될 가능성을 크게 낮춘 상태에서 온라인 공유를 하도록 만들 수 있다.

NUS 연구진들의 보고서에 의하면 이 기술은 ‘훈련 중인 알고리즘’의 태생적 불안정함을 노리는 것을 핵심으로 한다. 따라서 훈련 중인 알고리즘이 훈련 단계를 벗어나게 되고, 좀 더 탄탄하고 방대한 알고리즘이 나온다면 이 기술이 통하지 않을 수 있다. 그렇게 된다면 사용자들은 지금처럼 사람 눈에 안 보이고 기계에게만 보이도록 사진을 변형시키는 게 아니라, 사람도 못 알아볼 정도로 사진을 변형시켜야 할 지도 모른다고 한다.

맥길대학(McGill University)에서 이미 비슷한 연구를 2018년부터 진행하고 논문까지 발표했던 조이 보스(Joey Bose)는 “사람의 얼굴 등 실제 모습을 있는 그대로 담아낸다는 것이 사진의 의의인데, 프라이버시 침해는 이 본질 자체를 악용하는 것이므로 해결이 참 어렵다”고 설명한다. 같은 사진이 누구에게는 잘 보이고 누구에게는 잘 안 보이게 할 수는 없다는 것이다. 즉, 이번 싱가포르국립대학이 고안한 방식인 ‘기계만 못 알아보게 만든다’는 게 마지노선이 될 수 있다는 뜻.

이처럼 온라인에 공유되는 사진들에 ‘기계만 못 알아 보는 필터를 씌우는 방법’이 연구되는 건, 일부 조직들이 인터넷에 돌아다니는 각종 인물 사진들을 수집해 얼굴 인식 기술을 개발하는 데 남용하기 때문이다. 특히 소셜 미디어의 출현으로 사람들의 사진을 대량으로 수집하는 게 간단한 일이 되어버렸다. 사람들의 얼굴을 인식하는 기술은 보다 정교해지고 있고, 그에 따른 부작용이 속속 등장하기 시작했다.

물론 이런 현사에 대한 정답이 NUS가 발표한 기술이라고 말하기는 힘들다. 연구원들 스스로 밝혔듯 아직 모든 알고리즘에 통용되는 수준도 아니다. 문제가 되는 알고리즘이 발견되면, 해당 알고리즘에 대해 연구원들이 공부를 하고 이해도를 높여야 방해 알고리즘이 만들어질 수 있다는 것도 꽤나 중요한 한계점이다.

“이 연구의 궁극적인 목적은 단순히 머신러닝 알고리즘을 방해하는 게 아닙니다. 공격에 사용되는 머신러닝에 대해 이해하는 것으로, 쉽게 말해 ‘레드팀 머신러닝 알고리즘’을 만드는 것입니다. 공격자들이 머신러닝 기술을 활용하기 시작한 건 이미 오래 전의 일이죠. 아직 활성화 되었다고 보기는 힘들지만요. 그렇기에 미리 머신러닝 공격법을 미리 익히고 이해하는 것이 미래에 도움이 될 것이라고 봅니다.” 보스의 설명이다. 그러면서 “이 연구 결과를 통해 알아낸 것들이 정책과 규정 수립에 도움이 될 것으로 기대한다”고도 덧붙였다.

칸칸할리 교수는 “설사 우리가 모든 알고리즘에 통용되는 ‘방해 알고리즘’을 찾아내는 데 성공한다고 하더라도, 정책 입안자들이 새로운 감시 규제를 만들어 어떻게 해서든 감시 체제를 완성시키려고 한다면 막기 힘들다”고 말했다. “그러므로 얼굴 인식 기술의 발전과 프라이버시 보호의 문제는 완벽한 해결을 볼 수 없습니다. 늘 한쪽이 우세한 지점을 선점하려 할 것이고, 그에 따른 균형을 맞춰주는 것이 관건입니다.”

칸칸할리 교수는 “지나친 기술의 발전을 막는 것도, 그 기술의 남용과 오용을 막는 것도 규제와 법이 할 일”이라며 “이런 규제와 법은 민주주의 사회에서 국민들이 목소리를 내고 여론이 형성될 때 만들어질 가능성이 높다는 걸 사용자 한 사람 한 사람이 기억해야 한다”고 강조했다.

3줄 요약
1. 얼굴 인식 기술의 섣부른 적용 때문에 프라이버시에 관한 우려가 계속 생기고 있음.
2. 이에 얼굴 인식 알고리즘을 방해할 수 있는 기술이 싱가포르의 대학에서 개발됨.
3. 그러나 아직까지 제한점 많은 기술. 정책과 법으로 완성시켜야 프라이버시 침해 막는 것 가능.

[국제부 문가용 기자(globoan@boannews.com)]

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기


  •  SNS에서도 보안뉴스를 받아보세요!! 
그린존시큐리티 4개월 배너모니터랩 파워비즈 6개월 2020년6월22~12월 22일 까지넷앤드 파워비즈 진행 2020년1월8일 시작~2021년 1월8일까지위즈디엔에스 2018파워비즈배너 시작 11월6일 20181105-20200131
설문조사
코로나19 팬더믹 이후, 가장 기승을 부리고 있는 사이버 공격 유형은 무엇이라고 보시나요?
랜섬웨어
피싱/스미싱
스피어피싱(표적 공격)/국가 지원 해킹 공격
디도스 공격
혹스(사기) 메일
악성 앱
해적판 소프트웨어
기타(댓글로)