세계 보안 엑스포  전자정부 솔루션 페어  개인정보보호 페어  국제 사이버 시큐리티 컨퍼런스  세계 태양에너지 엑스포  스마트팩토리  세계 다이어트 엑스포  INFO-CON
Home > 전체기사
인공지능 윤리에 주목해야 하는 이유
  |  입력 : 2018-06-17 22:14
페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기
인공지능 기술, 향후 어떤 방향과 양태로 발전할지 정확하게 예측할 수 없어
개발자·사업자·이용자 등 자율적 윤리 기준 정립 위한 지원 필요


[이미지=iclickart]

[보안뉴스= 심우민 경인교육대학교 사회과교육과 조교수] 정보통신 기술의 발전은 급기야 인간의 판단도 일정부분 대체할 수 있는 인공지능 기술에 대한 기대에까지 이르고 있다. 물론 아직까지 기술 발전의 초기 상황이라고 할 수 있지만, 아주 천천히 이러한 기술들은 우리 일상생활에 스며들고 있다.

입법 만능주의의 우려
이에 관한 국가 공동체적 담론의 쟁점은 어떻게 하면 이러한 기술 활용으로 인한 순기능을 최대화하면서도 그 역기능을 최소화할 수 있는지 여부다. 애석하게도 이에 대한 명확한 대응방안은 아직까지 존재하지 않는다. 그 이유는 모종의 공동체적 대응을 위해서는 대응 대상의 속성이 명확해야 하는데, 아직까지 그 누구도 명확한 관점을 정립하고 있지 못하기 때문이다.

정보통신 기술 영역은 기술 전문성이 요구되는 영역일 뿐만 아니라, 다양한 이해관계자들의 네트워크 기반 소통이 중심을 이루는 일종의 공간 관념으로 상정되곤 한다. 정보통신 기술의 발전은 다양한 실생활의 변화를 불러온 것이 사실이지만, 그 변화에 대한 사회적 대응방식을 매우 전면적으로 바꾸어 놓은 것은 아니었다. 법적인 측면에서 보자면, 네트워크를 매개로 하는 새로운 법적 관념을 도입하는 방식으로 어느 정도 대처할 수 있었다. 실제 1990년대 중반 이후 IT 법학 담론이 결국에는 새로운 법학 연구방법과 영역을 창출하기 보다는 전통 법리를 일부 수정하는 수준에 정체되어 있다는 사실에서 이를 확인할 수 있다.

그러나 최근 언급되고 있는 인공지능 기술은 좀 다른 측면이 있다. 기존 정보통신 기술이 인간의 소통을 원활히 하는 데 기여하는 수단으로서의 성격을 가지는 것이었다고 한다면, 인공지능 기술은 인간의 의사결정 및 판단 자체를 좌우하는 중요한 역할을 수행할 수 있게 될 것으로 예견된다. 이러한 자동화된 기계적 의사결정은 타인과의 소통 이전에 특정 사안과 대상에 대한 판단을 종결시키는 막대한 영향력을 행사하게 될 것이다. 이는 이용자들의 생활 편의성을 증대시키는 데 기여할 수 있을 것으로 보이지만, 이와 대조적으로 물리적 위해는 물론이고 가치 편향과 그로 인한 차별이라는 추상적 차원의 위험도 발생시킬 여지가 있다. 그 결과 인공지능 기술 발전에 대한 대응방안을 마련해 나가야 하는 것은 당연하다.

그러나 이러한 대응이 반드시 입법(법률)을 통해 이루어져야 하는 것은 아니다. 다소 철학적이고 이론적인 논의는 차치하고라도, 우리 헌법 제37조 제2항은 자유주의 국가 이념에 입각하여 법(률)적 대응의 보충성과 비례성을 언급하고 있다. 거칠게 이야기하자면, 국가의 사회 역기능에 대한 대응에 있어 법은 최후의 수단이어야 할 뿐만 아니라 과도한 것이어서는 안 된다는 점을 언급하고 있는 것이다.

최근 대형 포털사의 검색, 댓글, 기사배열 등의 문제가 연일 정보통신 분야의 중심 화두로 등장하고 있다. 그리고 인공지능 활용과 연계된 개인정보 보호규제 혁신의 문제도 이미 오랜시간 동안 논쟁의 대상이 되어 왔다. 이에 따라 기술 역기능에 대비하기 위한 다양한 법적 대안들이 국회에서 또한 정부에서 양산되고 있는 상황이다. 그러나 정작 문제는 논의되는 법안들이 제정되면 과연 모든 사안들을 의도했던 바와 같이 해결할 수 있을지에 대해서는 사회적으로 진지하게 고민하지 못하고 있는 형국이다. 일종의 법률 또는 입법 만능주의 행태라고 할 수 있다.

중요한 것은 기계가 아닌 사람의 윤리
인공지능 기술은 향후 어떠한 방향과 양태로 발전하게 될지에 대해 정확하게 예측할 수 없다. 특히, 인공지능 기술은 자체가 기계의 자율적 판단을 추구한다는 점에서, 그것의 일상화·보편화 이후에도 모든 관련 사안에 명확하게 사전에 대비할 수 없는 성격을 가진다. 이는 소위 인공지능 기술의 블랙박스적(불확정적) 성격이라고 표현된다. 즉, 모종의 사전적 대응 기준을 마련한다고 해서 모든 역기능에 온전히 대응하기에는 힘들어진다는 의미다.

결국 초점은 우리 사회가 기술적 전문성과 그 신속한 변화에 어떻게 대응할 것인지 여부라고 할 수 있다. 주지하다시피 이러한 전문기술 영역에 대해서는 전통적 법적 규제가 효과적이지 못하다. 따라서 연성법(soft law)을 통한 대응이 중요하다는 점은 널리 알려진 사실이다. 이는 입법자 및 정책 입안자들의 기술적 전문성 부족과 법이라는 규범형식 자체가 가지는 경직성이라는 문제 인식에 터 잡고 있는 것이다.

연성법이 강조되는 맥락은 종국적으로 관련 기술을 개발 및 상용화하고, 이를 이용하고자 하는 이들의 자율적인 대응 노력을 전제로 하는 것이다. 물론 앞서 언급한 바와 같은 인공지능 기술의 불확정적 성격을 감안해 본다면, 개발자나 사업자들의 측면에서 모든 인공지능 역기능에 대응할 수 있는 것은 아니라고도 할 수 있다. 다만 아직까지 인공지능 기술이 발전 초기단계라는 점을 감안한다면, 가급적 위험을 감축시키거나 제거할 수 있는 노력을 현 단계에서 수행하도록 하는 것이 타당하다. 즉 개발자와 사업자, 더 나아가서는 이용자 수준의 인공지능 활용 윤리가 요구된다. 물론 점차 인간의 판단 패턴과 능력을 닮아 가는 인공지능 자체에 내장되거나 그것이 학습을 통해 정립해 가는 윤리 기준의 문제도 중요하다. 이러한 측면에서 인공적도덕행위자(AMA: Artificial Moral Agent)에 대한 관심도 높다.

그러나 종국적으로 기계적 지능이 작동함에 있어 어떤 가치 기준을 내장하고 학습할 것인지의 문제는, 결국 그것을 설계하고 활용하는 인간의 윤리 문제로 귀결될 수밖에 없을 것이다. 인공지능 기술의 활용이 아무리 인간의 편의성 또는 사회적 편익을 증대시켜 준다고 할지라도, 그것이 종래 인간의 핵심적 윤리 기준과 전면적으로 상충하는 위험을 유발하는 경우에는, 관련 인공지능 기술 상용화를 일부 자제하거나 추가적인 기술 대응방안을 확보하고자 하는 노력 등과 같은 인간의 윤리를 말한다.

새로운 디지털 시민성에 주목하며
그렇다면 이러한 인공지능의 개발 및 활용에 관한 인간의 윤리는 어떻게 정립될 수 있는 것인가의 문제를 생각해 봐야 한다. 우리나라의 경우 유관 정부부처들을 중심으로 각종 윤리 헌장과 가이드라인을 제시하기 위한 노력을 경주하고 있다. 우리나라의 경우 해외 주요 국가들과는 달리 시민사회 이익집단 및 이해관계자들 간의 적극적인 자율규제 기준 정립 노력을 수행할 수 있을 만한 조건 및 환경이 빈약하다는 현실적인 상황을 감안해 볼 때, 정부부처들의 이러한 노력은 일정부분 의미를 가질 수 있다는 점을 부인하기 힘들다.

그러나 정부부처들을 중심으로 한 윤리기준 정립 노력은 자칫 사회 내의 자율적 문제해결 역량을 위축시킬 가능성이 높다. 실제 우리나라의 경우 산업화 이후 국가 주도의 다양한 규제 입법이 난립하면서 새로운 사회적 문제가 대두될 때마다 공동체적 차원의 비법적·자율적인 자구책을 먼저 마련하기 보다는 국가 및 입법자들이 먼저 대안을 마련해 주기를 기다리는 환경을 만들어 냈다. 즉 우리 시민사회의 자율적 문제해결 역량이 미약한 원인이 바로 여기에 존재한다.

문제는 인공지능 기술의 일상화와 보편화는 종래 정보통신 기술 및 서비스와는 달리 사회 전반에 매우 전향적인 영향력을 미칠 것이라는 점이다. 인간 의사결정이 필요한 영역에서는 어디든지 수준의 차이는 일부 있을지라도 상당한 영향을 미칠 수밖에 없다. 이러한 모든 영역에서 정부부처들이 모종의 선제적 윤리 기준을 제시한다는 것, 그 가능성 여부를 차치하고라도 그다지 효율적이지 못할 것이다. 결과적으로 매우 모호한 수준의 윤리기준을 나열하는 데 그치고, 그 자체가 체계 혼선을 유발할 가능성이 높다.

[사진=경인교육대학교 심우민 교수]

따라서 현 시점에서 중요한 것은 추상적 수준의 원칙 나열이 아니다. 인공지능 개발 및 활용 등에 관한 원칙의 측면에서만 보자면 이미 참조할 수 있는 다양한 사례들이 존재한다. 오히려 중요한 것은 예측하지 못했던 새로운 영역과 사례들에 대하여 시민사회가 적극적으로 대응할 수 있는 역량을 강화할 수 있도록 국가 공동체적 차원에서 지원해 줄 수 있는 체계를 마련하는 것이다. 개발자, 사업자, 이용자 등 각 사회 주체들이 자율적으로 윤리 기준 정립을 위해 협력해 나갈 수 있도록 유도하고 지원하는 방안이 필요하다.

이를 위해서는 단지 자율적 문제해결 노력을 기다려주는 방식을 넘어서서 투명하고 협력적인 노력의 결과를 국가가 수용해 나갈 수 있는 제도적 조건을 적극 강구해볼 필요도 있을 것이다. 이것은 결국 과거와는 다른 새로운 시대에 부합하는 디지털 시민성(digital citizenship)을 안착시키는 방안이 될 것이다.
[글_ 심우민 한국인터넷윤리학회 이사/경인교육대학교 사회과교육과 조교수(legislation21@gmail.com)]

필자 소개
심우민 교수는 2011년부터 국회입법조사처 과학방송통신팀에서 ‘정보보호·정보기술·IT융합’ 관련 업무를 담당해 왔으며, 2017년 8월부터 경인교육대학교 사회과교육과 조교수로 재직 중이다. 현재 한국인터넷윤리학회 총무이사, 사이버커뮤니케이션학회 연구이사, 한국포스트휴먼학회 법제이사, 한국인공지능법학회 연구이사, 법과사회이론학회 총무이사 등의 직책을 수행하고 있다.

주요 저서로는 정보사회 법적규제의 진화(2008), 입법절차와 사법절차(공저, 2009), The Rationality and Justification of Legislation(공저, 2013), 입법학의 기본관점(2014) 등이 있으며, 주요 논문으로는 SNS 선거운동 규제의 입법정책 결정론적 검토(2012), 스마트 시대의 개인정보보호 입법전략(2013), 사물인터넷 개인정보보호의 입법정책(2015), 인공지능의 발전과 알고리즘의 규제적 속성(2016), 인공지능과 법패러다임 변화 가능성(2017) 외 다수의 논문을 출간했다.

<저작권자: 보안뉴스(www.boannews.com) 무단전재-재배포금지>

  •  
  • 0
  • 페이스북 보내기 트위터 보내기 네이버 밴드 보내기 카카오 스토리 보내기


  •  SNS에서도 보안뉴스를 받아보세요!! 
모니터랩 파워비즈 배너 시작 18년9월12일위즈디엔에스 2018WD 파워비즈 2017-0305 시작
설문조사
국내 정보보호 분야 주요 사건·이슈 가운데 정보보호산업에 가장 큰 영향을 미친 것은 무엇이라고 생각하시나요?
2001년 정보보호 규정 포함된 정보통신망법 개정
2003년 1.25 인터넷 대란
2009년 7.7 디도스 대란
2011년 개인정보보호법 제정
2013년 3.20 및 6.25 사이버테러
2014년 카드3사 개인정보 유출사고
2014년 한수원 해킹 사건
2017년 블록체인/암호화폐의 등장
기타(댓글로)