[블로터12th] AI로 그리는 미래, 장미빛이기만 할까 – 수다피플

<블로터>가 창간 12주년을 맞아 지난 1년 동안 블로터 독자로부터 뜨거운 관심을 받은 인기 기사를 다시 살펴보았습니다. 매일 쏟아지는 새로운 소식을 전하는게 뉴스이기도 하지만, 과거 다룬 뉴스 속 정보가 현재 어떻게 변화했는지 그 과정을 소개하는 것도 뉴스라고 생각합니다. 1년 전 이맘때, 저희가 소개한 유튜브 채널 정보, 인공지능과 자율자동차가 그리는 미래와 관련된 소식들. 이 뉴스 속 정보가 어떻게 변화했고, 새롭게 추가된 것은 없는지 살펴보았습니다.

#1. 성인 영상물에 내 얼굴이 합성돼 포르노 사이트에 올라간다. 누군가가 포르노 회사의 인공지능(AI) 합성 서비스를 이용해 벌인 일이다.

#2. 거리 곳곳에 설치된 수억대의 AI 감시 카메라가 행인의 일거수일투족을 감시한다. 경찰은 안면인식 스마트 안경을 통해 범죄자를 색출한다.

#3. 가짜뉴스가 글이 아닌 대통령의 입을 통해 전해진다. AI 기술을 통해 정교하게 합성한 대통령 영상과 합성음이 유튜브를 통해 퍼진다.

공상과학(SF) 소설에서 벌어질 법한 디스토피아적 상상 같지만, 현재 AI 기술로 구현할 수 있는 현실이다. 미래로만 여겨졌던 AI는 이미 인간이 직면한 불편을 해결해주며, 우리 생활 곳곳을 파고들고 있다. 그리고 위에서 언급한 사례처럼, 장미빛 미래 못지 않게 잿빛 미래 가능성도 함께 보여주고 있다.

AI 기술 발전을 논하면서 윤리적 문제가 빠지지 않고 불거지는 이유다. AI에 대한 막연한 불안은 기술이 가져다줄 새로운 기회를 앗아갈 수 있다. 그러나 지나친 낙관론 역시 기술의 부작용에 대응할 기회와 시간을 놓치는 결과를 불러올 수 있다.

기술은 낙관과 비관의 교차 속에 발전한다. AI도 마찬가지다. 진실은 대개 양극단의 주장 사이 어딘가에 있다. 이 중간 지점에서 미래를 향한 경로를 탐색하기 위해선 AI에 대한 막연한 불안 대신 명확한 진단이 필요하다. 진단을 위해선 사례가 필요하다. 최근 AI 기술이 사회와 부딪힌 몇 가지 윤리적 쟁점과 사례를 짚어봤다.

| AI와 감시카메라의 조합은 사생활 침해로 이어질 수 있다.

 

딥페이크 기술과 디지털 성범죄

최근 포르노 사이트에서 인기를 끌었던 검색어 중 하나는 딥페이크다. 딥페이크는 특정 인물의 얼굴, 신체 등을 딥러닝 기술을 이용해 영상에 합성한 편집물을 일컫는다. 유명 연예인들의 얼굴을 포르노 영상에 합성한 영상들이 AI 기술을 바탕으로 정교해지면서, 디지털 성범죄가 무분별하게 벌어지고 있다. 과거에도 이미지, 영상 합성 등으로 인한 문제가 없었던 건 아니다. 하지만 가짜 콘텐츠를 쉽고 빠르게 대량으로 찍어낼 수 있다는 점에서 AI를 이용한 디지털 성범죄는 이전과 다른 파괴적 영향력을 자랑한다.

최근에는 딥페이크를 활용한 서비스까지 등장했다. 미국 포르노 회사 너티 아메리카는 고객이 원하는 영상과 인물 이미지를 보내주면, 이를 성인용 영상으로 합성해 돌려주는 서비스를 출시해 논란을 일으켰다.

진짜 같은 가짜를 더욱 정교하게 만드는 데 활용된 기술은 ‘GAN’이라고 불리는 차세대 딥러닝 알고리즘이다. GAN은 진짜 같은 가짜를 생성하는 모델과 이에 대한 진위를 판별하는 모델 간 경쟁을 통해 진짜 같은 가짜 이미지를 만들어 낸다. 기존에 인간이 정제한 데이터를 바탕으로 학습하는 지도 학습 방식에서 벗어나 스스로 답을 찾는 비지도학습 방식을 사용한다. 그 덕에 인공지능(AI) 연구의 새로운 장을 열었다는 평가를 받았다. 동시에 딥페이크 포르노 같은 악용 가능성에 대한 우려의 시선도 함께 받고 있다.

| 버락 오바마 전 미국 대통령의 가짜 영상

이 문제는 가짜뉴스 문제로도 이어진다. 가짜뉴스는 인간 역사와 함께해 온 문제다. 그러나 기술 발전에 따라 가짜뉴스의 생산 속도와 양이 기하급수적으로 늘면서 가짜뉴스 문제는 이전과 다른 사회적 파급력을 갖게 됐다. IT 자문기관 가트너는 ‘2018년 이후 주목할 10대 디지털 기술 전망’을 발표하면서 2020년이 되면 사람들이 실제 정보보다 AI가 만든 허위 정보를 더 많이 접하게 될 것이라고 전망했다. 텍스트보다 신뢰성 있는 이미지, 음성, 영상들이 실제와 가깝게 만들어져 조작될 경우 가짜뉴스 문제는 더욱 심각해진다.

 

빅브라더, 감시사회의 현실화

전문가들은 AI가 감시사회를 위한 도구로 악용될 가능성을 우려한다. AI를 통한 이미지 및 영상 분석과 안면 인식 기술, CCTV 등이 결합해 조지오웰의 소설 ‘1984’에 등장하는 빅브라더 사회가 현실이 될 수 있다는 우려다. 중국은 감시사회에 대한 우려가 기우가 아님을 보여준다. 중국 정부는 AI 기술과 감시카메라를 이용해 범죄자를 식별하고 추적한다. 중국 공안 당국은 2015년부터 AI 감시카메라를 통해 범죄 용의자를 추적하고 관리하는 시스템 ‘톈왕’을 구축했다. 하늘의 그물이라는 뜻을 지닌 이 시스템은 범죄용의자 데이터베이스와 연동돼 움직이는 사람과 사물을 판별하고 범죄자를 추적한다. 중국 공안은 안면 인식 기능이 탑재된 스마트 안경을 통해 범죄자 수색에 나서기도 했다.

| Flickr, CC BY Johnathan Nightingale

중국에는 현재 1억7600만대의 감시 카메라가 설치된 것으로 알려졌다. 이러한 AI 기반 감시 인프라는 범죄자뿐만 아니라 시민을 향한 감시와 사생활 침해로 이어질 가능성을 내포하고 있다. 중국 정부는 온·오프라인을 통해 수집된 정보를 바탕으로 주민의 행동 양식을 평가해 개인에게 점수를 매기는 ‘사회신용시스템’을 2020년까지 구축할 계획이다. 이 신용평가점수에 따라 보험 가입이나 대출 여부가 결정되고 여행이 제한될 수 있다.

 

안면 인식 기술의 편향성

AI는 데이터 학습을 통해 정교해진다. 기술은 중립적이라는 말이 있지만 데이터 자체가 편향됐다면 어떨까. 안면 인식 기술은 AI 알고리즘의 편향성을 보여주는 대표적인 예다. 얼굴 인식의 정확도가 인종과 성별에 따라 다르게 나타나기 때문이다. 지난 2월 <뉴욕타임즈>는 조이 부올라미니 MIT 미디어랩 연구원의 논문을 인용해 ‘안면 인식 기술이 백인 남성에게 편향적으로 만들어졌다’라고 보도했다. 이 연구 결과에 따르면, 백인 남성은 99% 이상 정확하게 인식하지만, 흑인 여성의 경우 오류율이 최대 35%까지 증가했다. 백인 여성은 오류율이 7%, 흑인 남성은 12% 수준으로 나타났다.

실험은 마이크로소프트, IBM, 중국 메그미 등 3개 사의 AI 안면 인식 소프트웨어를 이용해 아프리카와 북유럽 국가 각각 세 곳을 선정하고, 여기서 1270개 얼굴 데이터를 만들어 진행됐다. 뉴욕타임스는 개발에 활용되는 안면 인식 데이터의 편향성을 지적했다. 일부 조사 결과에 따르면 AI 학습에 활용되는 안면 인식 데이터 중 남성이 75%, 백인이 80%를 차지하는 것으로 나타났다. 학습 과정에서 AI가 인간의 편견과 차별을 재현할 수 있다는 얘기다.

 

편리한 무기의 유혹

AI가 주는 편리는 삶 곳곳에 스며든다. 무기도 예외는 아니다. 인간의 역사는 전쟁의 역사라는 말이 있듯, 무기 개발에 AI를 적용하려는 시도는 세계 곳곳에서 벌어지고 있다. 전문가들은 AI가 적용된 자율살상 무기와 AI에 의한 군사적 의사결정에 대해 우려한다.

구글의 ‘프로젝트 메이븐’ 참여는 AI 무기개발과 관련된 윤리 문제에 불을 지폈다. 2017년 4월 시작된 프로젝트 메이븐은 미국 국방부가 드론으로 촬영한 영상 분석에 AI를 활용하는 프로젝트다. AI를 통해 영상 속 물체를 식별하는 데 초점이 맞춰졌다. 지난 3월 구글이 프로젝트 메이븐에 참여하고 있다는 사실이 알려지면서 수천 명의 구글 직원은 전쟁 무기로 사용될 가능성을 들어 반대 서명을 벌였다. 결국 구글은 최근 프로젝트 메이븐과 관련된 계약을 해지했다.

| 영화 속 형태와는 다르지만, AI 무기개발은 현실이 됐다. (출처: 네이버영화)

국내에서도 비슷한 일이 벌어졌다. 카이스트는 지난 2월 한화시스템과 ‘국방인공지능융합연구센터’를 공동 설립했다. 카이스트는 방위산업 물류 시스템, 무인 항법, 지능형 항공훈련 시스템 등에 대한 알고리즘 개발을 위한 목적이라고 알렸다. 하지만 해당 소식 알려지면서 지난 4월 전세계 30개 국가 AI 및 로봇 공학 분야 연구자 50여 명은 카이스트와 관련한 연구에 참여하지 않겠다며 보이콧을 선언했다. 이에 대해 신성철 카이스트 총장은 “국방인공지능융합연구센터는 대량살상무기, 공격무기, 통제력이 결여된 자율무기를 포함한 인간 윤리와 인간 존엄성에 어긋나는 연구 활동을 하지 않을 것”이라는 내용의 성명을 발표했다.

 

AI가 무엇을 해야 하는지 질문할 때

기술은 사회에 받아들여졌을 때 지속 가능하다. AI 기술의 부작용에 대한 우려가 늘면서 글로벌 IT 기업들은 AI 윤리 규범을 내놓고 있다. 마이크로소프트는 2017년 자사의 AI 연구 인력을 위한 ‘AI 디자인 원칙’과 ‘AI 윤리 디자인 가이드’를 소개했다. AI가 효율성을 극대화하되 인류를 위협하지 않고 인류 발전에 기여해야 하며 투명성을 갖추고 기술이 신뢰에 기반해야 한다는 내용을 담았다. AI 무기 개발 논란을 겪은 구글은 지난 6월, AI 기술이 무기 개발이나 감시 도구로 쓰이지 않도록 하며 인종과 성적, 정치적 차별을 결정하지 않도록 하겠다는 내용을 담은 7대 윤리 지침을 내놓았다. 국내 기업 중에는 카카오가 ‘알고리즘 윤리 헌장’을 지난 1월 발표했다.

| 윤리적 AI의 필요성이 대두되고 있다.

지난 8월24일 서울대학교 법과경제연구센터에서 주최한 ‘인공지능의 시대: 기술 발전에 따른 책임과 규제’ 포럼에 참석한 줄리 브릴 마이크로소프트 법무정책팀 부사장은 “정부가 인공지능을 규제하기 위해 취해야 하는 조치와 목적이 무엇인지에 대한 더 많은 논의가 필요하다”라며 “이제는 기술이 무엇을 할 수 있을지보다는 기술이 무엇을 해야 하는지에 대해서도 질문해야 한다”라고 짚었다. 현재 마이크로소프트는 안면 인식 소프트웨어의 편향성을 인정하고 미국 정부에 안면 인식 소프트웨어 사용에 대한 규제를 촉구하고 있다.

섣부른 규제는 기술 발전을 저해할 수 있다. 또 사회적 논의는 대상이 불명확할 때 공전한다. AI와 관련된 논의는 위험의 정도가 다른 다양한 기술이 AI로 통칭되고 있어 논의 자체가 비생산적으로 흐르곤 한다. 규제에 앞서 AI에 대한 사회적 논의를 위한 사전 작업이 필요하다는 주장이 나오는 배경이다.

고학수 서울대학교 법과경제연구센터장은 <블로터>와의 통화에서 “AI로 인해 어떤 식의 문제가 어떻게 나타날지에 대해 정리하는 작업이 우선돼야 한다”라며 “(AI에 대해) 불필요하게 불안감을 가질 수 있고 반대로 신경 써야 하는 문제가 묻힐 수 있기 때문에 논의의 전 단계로 문제에 대한 정리가 필요하다”라고 말했다.

from Bloter.net http://www.bloter.net/archives/318745