검색
LAW&스마트

AI 편향성 논쟁과 이루다 서비스

167272.jpg

사람이 하는 면접과 기계가 수행하는 면접 중 어느 쪽이 더 객관적일까? 다수의 사람들은 직관적으로 사람보다 기계, 즉 인공지능이 수행하는 면접이 더 객관적이라고 판단하는 듯하다. 가장 큰 이유는 서류나 외모에서 오는 선입견, 개인적인 편견이 적어도 인공지능에게는 적용될 여지가 없을 것이라는 생각때문일 것이다. 그런데 인공지능, 특히 빅데이터를 통한 학습을 기반으로 하는 방식의 인공지능 시스템은 결국 데이터에 종속될 수 밖에 없다. 학습용으로 사용된 데이터들이 사회적 편향성을 가진다면, 비록 우리는 그러한 사실을 인식할 수 없지만, 결과적으로 인공지능은 편향된 결과물을 내놓을 수 밖에 없다. 이런 면에서 인공지능은 사회를 반영하는 거울과 같다고도 얘기한다.

 

'이루다'는 인공지능 기반 챗봇 프로그램으로, 서비스 출시 2주 만에 무려 75만 명의 이용자를 모으는 등 젋은 세대에서 크게 유행하였다. 그러다 최근 대화 내용의 편향성 등의 이슈로 서비스 개시 후 고작 3주 만에 서비스 중단에 들어갔다고 한다. 대화형 인공지능 로봇의 짧은 수명은 이루다가 처음이 아니다. 2016년 마이크로소프트사가 내놓은 인공지능 챗봇 '테이'는 무려 16시간 만에 서비스가 중단되기도 하였다. 그 때도 중단 이유는 사용자들의 지속적인 혐오성 질문과 그 학습의 결과였다. 미국의 극우주의자들이 테이에게 지속적으로 반유대주의, 유색인종 비하, 여성 혐오 등을 가르쳐 테이로부터 그러한 답변이 나오게 만든 것이 논란이 되었다.

 

이루다 서비스가 충분한 준비를 하지 않고 세상에 나온 것이라는 의견도 있지만, 시간을 들여 준비할 수 있는 능력을 이미 갖춘 대기업 외에 새로운 인공지능 서비스를 내놓다는 것이 가능할 것인지는 의문이다. 그렇다고 이번 일로 인해 당장 인공지능의 편향성 방지를 법적 의무로 규정하고 이를 위반할 경우 형사처벌하겠다는 방식의 입법이 이루어져 이제 막 시작하는 인공지능 기반 스타트업들에게 또 하나의 족쇄가 채워질 만큼 우리 사회가 팍팍하다고 생각하지 않는다. 인공지능은 선입견(bias), 고정적 시각(stereotype)을 어느 정도까지 배제하여야 하는지, 다양성은 어느 정도 존중하여야 하며, 투명성은 어느 정도로 보장되어야 하는지, 인공지능은 적대적 공격(adversarial attack)에 어느 정도 대비하여야 하는지와 같은 문제에 대하여 단순한 Yes or No가 아닌 좀 더 심도깊은 논의가 이루어질 수 있기를 기대한다.

 

 

강태욱 변호사 (법무법인 태평양)

미국변호사

관련 법조인