검색
화우

인권위, 인공지능(AI) 개발 및 활용 관련 가이드라인 발표

[2022.05.19.]



인공지능에 대한 관심은 2016년 세간의 스포트라이트를 받으며 치루어졌던 알파고 대 이세돌 바둑경기 이후 계속하여 증가하여 왔습니다. 특히, 미국의 소위 ‘빅테크’ 기업들 뿐만 아니라 우리나라의 IT기업들도 인공지능을 활용한 다양한 제품 및 서비스를 선보이면서 이에 대한 기대는 더욱 커져가고 있습니다. 하지만 이러한 관심 증폭과 더불어 인공지능 개발 및 활용과 관련하여 도덕적·윤리적 논란도 자주 발생하고 있습니다. 안면인식기술로 인한 개인정보보호 및 사생활 침해 문제, 인공지능 챗봇 ‘이루다’ 논란 등이 화제가 되면서 인공지능의 편리함 만을 좇을 것이 아니라, 관련 인권 문제에 대해서도 심각하게 논의해보아야 한다는 목소리가 높아졌습니다. 이에 따라, 국가인권위원회(이하 ‘인권위’)에서는 5. 17. ‘인공지능 개발과 활용에 관한 인권 가이드라인(이하 ‘가이드라인’)’을 발표하고, 국무총리와 관련 부처 장관에게 이에 기초하여 인공지능 관련 정책을 수립·이행하고, 관계 법령을 제·개정할 것을 권고 하였습니다. 이번 뉴스레터에서는 위 가이드라인에 대한 배경을 전반적으로 다루고, 그 내용 및 시사점에 대하여 설명드리겠습니다.



1. 가이드라인과 관련된 배경

최근 인공지능을 활용한 각종 제품 및 서비스들이 고용·금융·복지 등 다양한 분야에서 출시되고 이를 이용하는 사람들이 많아지면서, 이로 인한 인권문제 또한 다양한 국면으로 발생하여 계속 논란이 발생하고 있는 추세입니다. 이에 대한 대응으로, 이미 국제사회에서는 의견 수렴을 거쳐 EU 인공지능 윤리 가이드라인 및 OECD 인공지능 권고안 등 인공지능에 대한 정책 지침을 제공하고자 하는 노력이 있었습니다. 그러나 우리나라에서는 각종 논란에도 불구하고 대부분의 사람들은 인공지능 기술의 도입 및 운영에 대해 별다른 선택권이 없고, 의견 제시도 제한되어 있는 실정입니다. 또한, 인권 관련 문제가 있어도 개별 부처의 단편적 해결책 제시로 끝날 뿐, 유기적이고 통합적인 방안 제시가 없었습니다.


이에 인권위는 5. 17. 인공지능 관련 정책 수립·이행 및 관계 법령 제·개정시 일관되게 반영될 수 있도록 인공지능 및 인권 관련 가이드라인을 발표하였고, 이를 따르도록 국무총리 및 관련 부처 장관에게 권고하였습니다.


최근 각종 기업들이 인공지능 기술을 개발, 활용하여 편의를 제공하고 있을 뿐 아니라, 5. 3. 발표된 제20대 대통령직인수위원회의 110대 국정과제에 의하면, 디지털플랫폼 정부 구현, 규제시스템 혁신을 통한 경제활력 제고, 디지털헬스 중심국가 도약, 고용서비스 고도화 등 다양한 국정과제에 인공지능 기술이 활용되어 추진될 계획이기에, 해당 기술 발전에 막대한 영향을 미칠 인공지능 관련 정책을 주목해야 하고, 그 관련 정책의 인권 문제를 다루는 위 가이드라인을 유심히 살필 필요가 있습니다.



2. 가이드라인의 주요 내용

가이드라인에서 논하는 인공지능은 우선 학습과 추론, 판단을 전자적으로 구현하는 알고리즘과 해당 프로세스를 의미하나, 더 나아가 빅데이터 등 인공지능을 기능하게 하는 일련의 기술들을 포함합니다.


인공지능은 궁극적으로 대한민국 헌법 제10조에서 보장하고 있는 인간의 존엄과 가치를 향상시키는 방향으로 나아가야 하고, 그에 따라 ① 투명성의 확보 및 설명의무 준수, ② 개인정보 자기결정권의 보장, ③ 차별 금지, ④ 인공지능 인권영향평가 도입, ⑤ 위험도 등급 및 관련 법제도 마련이 수행되어야 합니다.


① 헌법으로부터 도출되는 알 권리 및 인공지능이 미치는 영향과 중요성에 근거하여, 인공지능 기술이 활용될 때에는 상대방에게 그 사실이 공지되어야 하고, 인공지능의 판단 과정과 그 결과가 적절히 설명되어야 합니다. 특히, 공공기관이 인공지능을 사용할 때에는 사전 공개와 의견수렴을 거쳐야 하고, 기본적 인권에 대하여 막대한 영향을 미칠 때에는 인공지능 알고리즘의 주요 요소를 공개하고 관련 설명이 제공되어야 합니다. 또한, 개인의 신체·재산 등에 중대한 영향을 주는 결정을 완전 자동화 의사결정에 의하도록 하는 것은 지양되어야 하고, 상대방에게는 이를 거부할 수 있는 선택권이 부여되어야 합니다.


② 인공지능의 개발 및 활용과 관련하여 필수적으로 요구되는 개인정보의 수집과 활용 부분에서 정보주체는 개인정보에 관하여 고지를 받을 권리, 개인정보 접근 및 열람권 등 각종 권리를 보장받아야 합니다. 그리고 정보주체는 인공지능이 자신의 개인정보를 어떻게 수집, 보관 등을 하는지에 대해 통지 받고 그 과정에 참여할 수 있어야 합니다. 이를 통해 정보주체의 개인정보 자기결정권이 보장될 수 있습니다.


③ 인공지능은 인공지능을 활용할 사람들의 다양성과 대표성을 반영하여 성별, 종교, 장애, 나이 등의 요소에 따라 편향적인 판단을 하지 않아야 하고, 따라서 개발 당시부터 다양한 계층의 의견을 듣는 과정이 필요합니다. 이를 위해서는 인공지능 개발과정에서 학습 데이터 및 알고리즘과 관련하여 차별적 요소가 배제될 수 있어야 하고, 주기적인 점검을 통해 편향적·차별적 판단 결과 등의 개선도 이루어져야 합니다.


④ 국가는 인공지능을 활용하는 공공기관 및 민간기업을 대상으로 인권영향평가를 실시하여야 하고, 그 내용을 인공지능의 특성, 상황, 목적 등을 감안하여 가이드라인 및 국제 지침 등에 반영하여야 합니다. 이러한 인권영향평가 결과는 대중에 공개되어야 하고, 조치가 필요한 경우 조치 대상인 인공지능 기술의 개발 및 활용은 중단되어야 합니다. 그리고 이러한 평가를 위해 전문성과 독립성을 확보한 기관이 요구되고, 전문가 육성 및 평가 기준의 개발 등을 위한 노력이 선행되어야 합니다.


⑤ 국가는 각종 산업 등에 개인의 인권과 안전에 미치는 위험성을 평가하여 인공지능이 얼마나 허용 또는 금지되는지 위험등급을 부여하여야 하고, 그에 부합하는 규제 마련 및 인적 지원을 준비할 필요가 있습니다. 감독 기관은 공공기관과 민간의 인공지능 개발 및 활용을 조사하고 피해 구제 등을 하기 위해 관련 정보에 접근할 수 있어야 하므로, 인공지능 개발자 및 운영자는 관련 데이터를 일정 기간 보관하여야 합니다. 또한, 국가는 인공지능 기술로 인해 피해가 발생하면 이를 구제할 방법을 마련하고 사생활 침해 방지·집회 및 결사의 자유 보장·노동 시장 충격 완화 등을 위해 법적·정책적으로 대응방안을 마련하여야 합니다.



3. 시사점

국내 인공지능 시장은 높은 성장률을 기록하며 그 규모가 계속해서 커져가고 있습니다. 예를 들어, 한국신용정보원은 국내 금융 인공지능 시장이 4년 뒤 3조 규모로 성장할 것이라 예측하기도 했습니다. 이처럼 인공지능을 활용한 제품과 서비스는 점점 더 다양해지고 우리 삶의 구석구석에 스며들 것이 분명하게 예상되는 가운데, 인공지능이 일으킬 수 있는 인권 문제와 관련하여 국가 정책이 나아가야할 방향을 인권위가 종합적으로 제시했다는 데 위 가이드라인의 의의가 있습니다.


비록 가이드라인이 마련 되었다고는 하나, 관련 논의가 충분히 무르익지는 않았기에 인공지능에 의한 인권 문제 및 가이드라인의 해석·준수와 관련된 전에 없던 법적 쟁점이 등장할 가능성이 큽니다. 특히 세계 최초로 인권지능에 관한 규제와 진흥을 포함한 기본법 성격의 ‘인공지능 육성 및 신뢰 기반 조성 등에 관한 법률’의 입법 동향 및 시행 후 집행 과정에 주목할 필요가 있습니다. 따라서 새로운 논의가 있다면 다음 뉴스레터를 통해 관련 내용을 즉시 업데이트 해드릴 예정입니다.



이근우 변호사 (klee@yoonyang.com)

황규호 변호사 (hwangkh@yoonyang.com)

여현동 변호사 (hdyeo@hwawoo.com)

황희경 외국변호사 (hkhwang@yoonyang.com)

이광욱 변호사 (kwlee@yoonyang.com)

관련 법조인