검색
서초포럼

AI 판사?

158857.jpg

인터넷으로 법원 관련 뉴스를 찾아보면 “판사를 AI로 바꿔라!”는 댓글이 자주 보인다. 판사는 믿을 수 없으니 기계가 차라리 낫다는 말이다. 

 

보통 사람들이 어떻게 생각하든, 현 기술수준에서 AI가 판사를 완전히 대체하는 것은 불가능하다. 그렇게 되려면 AI가 특정 주제가 아닌 모든 면에서 인간과 동일하거나 우월한 수준의 판단력을 가지는 강인공지능(strong AI) 수준이 되어야 한다. 하지만 강인공지능은 아직까지 존재하지 않고 근시일 내에 개발될 가능성도 희박하다. 강인공지능이 출현한다면 판사만 문제가 아니라 사회 전체가 뒤집힐 것이다. 

 

다만 지금의 기술로도 AI를 법원 판결의 보조도구로 활용할 수는 있다. 이를테면 판결문 데이터의 머신러닝을 통해 원피고 간의 과실비율, 적정한 수용보상금, 형량 등을 산정하는 AI 알고리즘을 생성하고, 그 알고리즘에 당해 사건의 사실관계를 입력하여 권고수치를 도출한 후 판결에 참고하는 것이다. 이미 미국의 여러 주 법원은 알고리즘에 의해 계산된 재범의 위험성 점수를 양형판단 자료로 삼고 있다. 

 

AI 권고를 활용한 재판에는 여러 장점이 있다. 다수의 기존 판결문을 분석하는 역할을 AI가 대신해 주므로 판사가 유사사건 판결 검색과 비교에 투입하는 시간과 노력이 절약된다. AI 권고는 중립적, 객관적이므로 판사 개인의 경험, 편견, 지식의 한계에 따른 편차와 자의를 줄일 수 있다. 판결의 예측가능성이나 조정, 화해 가능성도 높아진다. 

 

그러나 장점뿐만 아니라 위험도 있다. 우선, 머신러닝 AI는 다량의 데이터를 학습하여 확률적으로 상관관계를 도출할 뿐, 어떠한 요소를 얼마만큼 고려하여 결과를 냈는지 제대로 설명하지 못한다. 이에 따라 AI 권고가 왜 잘못되었는지를 당사자가 구체적으로 다투기도 어렵다. 머신러닝 AI는 기존 판결에 내재된 편향도 그대로 학습하므로, AI 권고도 똑같이 편향적으로 나올 수 있다. 소위 “Bias in, bias out!”이다. 또한 판사가 독립적인 숙고 없이 AI 권고를 그대로 적용하다 보면 기존 판례를 표준화한 AI가 판사 노릇을 대신하고 판사는 도장만 찍는 사람으로 전락할 것이다. 

 

재판에서의 AI 도입은 전 세계적인 추세고, 대법원도 AI의 도입을 전향적으로 검토 중이다. 그러나 AI의 신속성과 효율성만 강조하다가 위험성을 간과해서는 안 된다. AI의 도입과 함께 당사자의 절차권과 적법한 재판을 보장하는 여러 제도적 장치가 마련되어야 하겠지만, 무엇보다 중요한 것은 정보공개다. 만약 대법원이 내부데이터를 바탕으로 AI 알고리즘을 개발하여 AI 권고를 판결에 활용하고자 한다면, 그 학습데이터와 알고리즘부터 전면적으로 민간에 공개되어야 한다. 그래야만 당사자도 자체적으로 법원 AI의 오류를 분석하여 반박할 수 있을 것 아닌가. 알리고 반박할 기회를 주는 것, 이것이 적법절차의 기본이다. 원칙은 AI 시대라고 달라지지 않는다.

 

 

한애라 교수 (성균관대 로스쿨)

관련 법조인

미국변호사