검색
연구논단

AI 알고리즘 규제와 영업비밀

미국변호사

165203.jpg

1. AI와 AI 알고리즘 

정부는 2030년까지 디지털 경쟁력 세계 3위, 경제효과 최대 455조원 창출, 삶의 질 세계 10위를 목표로 인공지능(AI) 국가전략을 수립하여 추진하고 있다. AI는 인간의 정신적 활동을 모방하는 기계, 소프트웨어 등 유무형의 장치 또는 체계를 말한다. 머신러닝·딥러닝 등을 통하여 지각·추론·학습 등 인간 지능과 유사한 활동을 한다. AI의 유형을 보자. 강한 AI는 대량의 데이터를 학습하여 인간이 사전에 예상하지 못한 결과까지 만들어내는 AI이다. 약한 AI는 복잡한 계산을 수행하지만 인간이 정한 규칙을 벗어나지 않는 AI이다. 현재 AI의 사례로 거론되는 대부분이 약한 AI에 속한다. 강한 AI의 구현은 다소 시간이 걸릴 것으로 보인다. 따라서 AI에 관한 진흥 및 규제정책이 집중적으로 논의되어야할 분야도 약한 AI이다. AI 알고리즘은 AI의 두뇌라고 할 수 있는데 주어진 문제를 논리적으로 해결하기 위하여 필요한 절차·방법·명령어·규칙들의 집적체를 말한다. AI알고리즘을 통하여 신약개발·자율주행·모빌리티 등 혁신적인 서비스를 가능하게 할 수 있다. AI알고리즘은 기업의 영업비밀에 속하지만 편향성·불투명성의 문제를 야기할 수 있으므로 그 해결방안을 찾아본다.


2. AI 알고리즘의 부정적 특징으로서의 편향성과 불투명성
가. 편향성

헌법 및 각종 법률은 국민에 대한 부당한 차별을 금지하고 있다. AI 알고리즘을 적용한 결과에 따라 인종, 사회적 지위, 성향, 경제적 부의 규모, 성별 등을 이유로 차별이 발생하는 경우가 있을 수 있다. 이를 AI 알고리즘의 편향성이라고 한다. AI 알고리즘의 편향성이 발생하는 원인을 보자. 첫째 AI알고리즘의 설계·기획 단계에서 편견이 들어가 차별을 야기하는 경우이다. 둘째 AI시스템 기획·디자인·개발·시험·적용 등 과정의 전부 또는 일부에서 외부 요인의 개입으로 편향성이 발생하는 경우이다. 셋째 AI가 의존하는 데이터가 잘못되어 AI알고리즘을 적용한 결과도 편향성을 띄는 경우이다. AI알고리즘의 편향성은 법적으로 허용되지 않은 차별을 가져올 수 있으므로 피해 방지를 위해 어떠한 정책과 법제도를 만들 것인지 중요해 진다. 

 
나. 불투명성
AI시스템은 그 작동 과정이나 결과의 전부 또는 일부에서 인간이 알 수 없는 현상을 야기할 수 있고 이를 불투명성이라고 한다. 현재 컴퓨터 프로그래밍의 경우 대부분 그 프로그램이 내린 결정의 원인과 과정, 결과에 관하여 확인과 설명을 할 수 있고 그로 인한 책임 소재도 밝힐 수 있다. 그러나 AI알고리즘의 경우 머신러닝·딥러닝의 결과로 그 시스템을 작동한 기업조차도 어떤 과정을 거쳐 왜 그러한 결정이 이루어졌는지 알기 어렵다. 그것은 AI알고리즘이 추구하는 목적이기에 당연한 것이다. 그러나 AI알고리즘의 작동으로 누군가에게 피해가 발생했을 경우에 그 적용과정이나 결과를 사전에 알 수 없다는 이유로 면죄부를 주는 것은 바람직하지 않다. 따라서 AI알고리즘의 불투명성을 해소하는 것이 중요한 법정책적 과제가 되고 있다.


3. AI 알고리즘과 영업비밀 보호

부정경쟁방지 및 영업비밀 보호에 관한 법률(이하 법)은 영업비밀을 보호하고 있다. 영업비밀은 공공연히 알려져 있지 아니하고 독립된 경제적 가치를 지니는 것으로서 합리적인 노력에 의하여 비밀로 유지된 생산방법, 판매방법, 그밖에 영업활동에 유용한 기술상 또는 경영상 정보를 말한다(법 제2조). 영업비밀을 침해하는 행위에 대해서는 금지청구권·손해배상청구권 등의 행사를 통하여 보호받을 수 있고(법 제10조, 제11조 등) 침해자를 형사처벌(법 제18조)할 수도 있다. AI알고리즘은 특정 사업을 위하여 가격·거래조건·거래방법 등의 전부 또는 일부에 관하여 AI를 활용하여 필요한 절차·방법·명령어·규칙들을 집적하여 제시하는 것이다. 따라서 공공연히 알려진 것이 아니고 인적 물적 투자 등 노력에 의한 결과물이므로 그 기업의 영업비밀에 속한다. 따라서 AI알고리즘 침해에 대해서는 금지청구권·손해배상청구권 등을 행사하여 보호받을 수 있다.


4. AI알고리즘의 편향성·불투명성 제거와 영업비밀 보호의 조화

앞서 본 바와 같이 AI 알고리즘은 그 고유의 특징으로서 편향성과 불투명성의 위험이 있다. 그러나 AI알고리즘이 영업비밀로 보호받음에 따라 어떻게 하여야 영업비밀을 침해하지 않으면서 그 편향성과 불투명성을 극복할 수 있는지가 중요한 과제가 된다. 


가. EU의 동향
(1) EU GDPR(General Data Protection Regulation)의 접근방법
EU GDPR은 EU 회원국에 직접 적용되는 개인정보보호법으로서 개인정보 보호라는 관점에서 AI알고리즘의 편향성과 불투명성을 제거하려고 한다. GDPR 제13조·제22조는 정보주체가 기업에게 AI알고리즘의 의사결정을 확인할 수 있는 인과관계에 관하여 최소한의 설명을 요구할 수 있는 법적 근거를 두고 있다. 먼저 설명요구권에 관하여 보자. 정보주체가 기업에게 AI알고리즘 등에 의한 프로파일링(자동화된 의사결정)으로 인하여 자신의 개인정보가 언제 누구에게 어디까지 알려지고 이용될 것인지 정보제공 등 설명을 요구할 수 있는 권리이다. 다음으로 이의제기권에 관하여 보자. AI알고리즘의 적용결과에 이의를 제기하고 해명과 확인을 요구할 수 있는 권리이다. EU는 기업의 프로파일링으로부터의 개인정보 보호 규정을 근거로 AI알고리즘으로부터의 편향성 및 불투명성 제거도 가능하다는 입장에서 출발하고 있다. 다만 AI에 관한 것이라고 하더라도 개인정보의 범위를 벗어난 사항을 추가적으로 규제하기 위해서는 별도의 법제도가 필요하다는 것을 부인하지는 않는다. 

 
(2) EU AI윤리가이드라인(2019. 4. 제정)의 접근방법
EU AI윤리가이드라인에서 편향성 및 불투명성 제거와 관련하여 참고할 만한 것을 보면 첫째 추적가능성이다. AI알고리즘이 어떤 데이터를 이용하고 어떻게 동작하는지에 관한 정보가 AI시스템에 기록되어 있어야 한다. 둘째 설명가능성이다. AI시스템에 의한 의사결정을 사람이 이해할 수 있어야 한다. AI시스템의 의사결정이 개인에게 영향을 미치는 경우에 그 이유를 설명해 줄 것을 요구할 수 있다. 설명 방법도 일반인·규제기관·연구자 등의 전문성에 맞추어 이루어져야 한다. AI가 의사결정 시스템을 기획 설계한 목적과 그 작동과정이 어떻게 이루어지고 개인에게 어떤 영향을 미치는지 등에 관한 설명을 적시에 제공해야 한다. 셋째 소통이다. 상대방이 AI시스템이라는 것을 알 수 있어야 한다. AI시스템과의 소통을 거부하는 경우에 사람과 소통할 수 있는 기회를 제공해야 하고 AI시스템의 능력과 한계에 대한 정보를 제공해야 한다. 


나. 한국에서의 해결방안
기업의 영업비밀을 보호하면서도 AI의 편향성과 불투명성을 제거하여 고객을 보호하기 위한 다양한 논의가 있다. 첫째 계약 등 시장원리와 자율규제에 의하자는 견해를 들 수 있다. AI알고리즘의 불투명성 및 편향성 제거가 고객의 상품 선택을 끌어내는 중요요소이므로 시장에서의 공정한 경쟁을 통하여 불투명성·편향성에 관한 문제점을 해소하자는 것이다. 또한 기업이 편향성과 불투명성 제거에 관한 사회적 책임을 다하도록 하고 소속 협회·단체의 자율규제(윤리가이드라인·지침·규약)를 통해 간접적으로 규제하는 것이다. 이 견해는 시장원리를 존중하고 AI의 산업적 발전을 가속화하는 장점이 있다. 그러나 기업 스스로의 의지에만 의존함으로써 기업의 의사결정이 어떠냐에 따라 실질적인 고객 보호가 미흡할 수 있다는 것이 단점이다. 둘째 입증책임의 전환 등 민사적으로 다룰 수 있는 방안을 찾자는 견해이다. 시장원리에 따라 AI알고리즘의 적용과정이나 결과로 인하여 계약불이행이나 불법행위가 발생한 경우에 계약책임·불법행위책임으로 처리한다. 다만 입법 또는 판례로 입증책임을 피해자가 아닌 기업에게 돌려 해당 기업이 AI알고리즘의 적용과정이나 결과에서 과실이나 위법이 없음을 입증케 하는 것이다. 이 견해는 AI의 산업적 발전에는 도움이 되나 고객 피해 발생을 사전에 막을 수 없다는 단점이 있다. 셋째 관계 법령의 제·개정을 통하여 정부의 행정규제를 확립하자는 견해이다. 고객에게 피해를 주는 AI알고리즘의 적용과정이나 결과 중 법적으로 금지되어야할 사항을 미리 입법으로 정립하거나 고객이 스스로를 보호할 수 있도록 고객에게 설명요구권·이의제기권 등 법적 권리를 부여하자는 견해이다. 이 견해는 일반법 또는 사업법 등 관계법령에 AI알고리즘의 불투명성·편향성 제거에 관한 세부 사항을 기업의 의무사항으로 규정하는 법조항을 도입할 것을 주장한다. 이 경우 주무 행정기관은 법이 정한 바에 따라 해당 유형에 해당하는 금지행위를 조사하여 제재 등 시정조치를 할 수 있다. 다른 한편으로는 AI알고리즘에 관한 설명요구권·이의제기권·적용거부권 등을 고객에게 법적 권리로 부여하고 기업이 이를 부당하게 거부하는 경우 또는 부당한 거부를 통하여 피해를 발생시키는 경우에 주무 행정기관이 제재조항을 발동할 수 있게 하는 것이다.



5. 결론

글로벌 경쟁사회에서 미래에 대한 섣부른 규제는 국가의 성장동력 정체를 야기하므로 AI알고리즘에 대한 초기 규제는 최소화함과 동시에 자율규제를 독려하는 것이 바람직해 보인다. 그 대신 기업이 AI알고리즘의 잘못된 적용결과를 예방할 수 있는 최소한의 사전 장치를 두도록 하고(기술적·관리적·물리적 조치사항 도입) 기업들의 의견을 수렴하여 영업비밀을 침해하지 않는 범위내에서 AI알고리즘의 목적·용도나 개요 등 핵심요소의 대략적인 사항만 편향성·불투명성 제거를 위하여 공개하는 수준이 타당할 것으로 판단된다.

 

 

이상직 변호사 (법무법인 태평양·AI-지식재산특별전문위원회 위원장)

종합법무관리솔루션

관련 법조인