AI 판사가 공정할 것이라고?

  • 기자명 김재인
  • 기사승인 2018.10.02 00:18
이 기사를 공유합니다

'유전무죄 무전유죄'를 외쳤던 지강헌이나 박근혜 정부 '사법농단'의 주역 양승태 전 대법원장이 아니더라도, 일반 시민의 법원에 대한 불신은 극에 이른 상태입니다. 이에 인간 판사에게 도움을 주는 수준의 인공지능(AI)을 넘어 아예 판결을 인공지능 판사에게 맡기자는 요구까지 나올 지경에 이르렀습니다.

"함께 재판을 받는 상대편이 엄청난 부자이거나 권력층이라면 공정한 판결을 받기 위해 인공지능 판사를 선택할 것 같아요." 

'인간 판사와 AI 판사 중 누구에게 재판을 받겠는가'라는 물음에 대한 답으로 9월 15일에 보도된 연합뉴스 기사 "유전무죄 무전유죄 싫다…AI 판사에 재판 받을래요"의 첫머리에 제시된 답변입니다.

청와대 국민청원 게시판에 올라온 요청들은 일반 시민의 인식을 잘 담고 있습니다. "비슷한 정도로 범행에 가담했고 검찰의 구형도 비슷했는데 판결은 차이가 컸다. 사건 관련 자료를 입력하면 유·무죄와 형량을 제시하는 계산기라도 있었으면 좋겠다." "모든 국민은 법 앞에 평등해야 하지만 판결을 보면 그렇지 않다는 걸 느낀다. 인간의 감정이 개입되지 않고 오로지 법에 입각한 판결을 할 수 있는 AI로 판사의 역할을 대체해달라." "인공지능에 법에서 필요로하는 모든 자료를 입력하고 모든 판결이 공정하고 공평하게 이루어지길 건의한다."

앞의 기사에는 몇몇 전문가의 발언도 소개되고 있습니다. "기계는 책임, 도덕적 문제, 법률적 문제 등을 고려하지 못한다. 전적으로 AI에 판결을 맡기는 것은 불가능하다."(최용석 한양대학교 컴퓨터소프트웨어학과 교수) "인간은 정량화를 하지 않고 결정, 판단을 할 수 있지만 인공지능은 수치로 표현한다. 그 수치가 오류가 날 수도 있고, 그 안에 도덕적이고 감정적인 가치 판단이 이루어졌는지에 대한 문제가 있다."(이성기 성신여대 법학과 교수) "AI 판사가 서류 작업 외에도 재판을 진행하고 각종 심문을 하기 위해서는 인간과 흡사한 로봇의 개발이 필요하다. 여기에 커뮤니케이션을 위한 시스템 등이 해결돼야 하는데 현재 단계로는 비현실적인 구상이다."(양종모 영남대학교 법학전문대학원 교수)

인공지능에게 법적 판단을 맡길 수 있느냐와 관련해서 흥미로운 발표가 있었습니다. 2017년 6월 1일 오후 대전지방법원에서 열린 '인공지능과 법' 학술대회에서 대전지방법원 고상영 판사는 "법률가들의 법적 사고 패턴은 ① 문제 되는 법적 쟁점을 확정하기 → ② 해당 법적 쟁점과 관련된 법령·판례·문헌을 검색하기 → ③ 해당 사례가 기존 판례에 적용 가능한지 여부를 판단(문제 된 사례가 검색된 사건들의 집합에 포함되는지 여부)하기라는 단계를 거친다"고 설명했습니다.

고 판사는 "AI가 위 단계 가운데 쟁점이 주어진 상태에서라면 ②단계(법령·판례·문헌 검색)는 어느 정도 할 수 있을 것으로 보이나, 판사로서도 핵심 쟁점을 찾는 것이 쉽지 않은 상황에서 ①단계(법적 쟁점 확정)가 가능할지는 상당한 시간을 두고 AI 발전 단계를 지켜볼 필요가 있다"며 "③단계(적용 여부 판단)는 '인간의 고유한 통찰력이 필요한 지적 작업'이기에 AI가 발전해도 이 작업을 컴퓨터가 하기는 어려울 것이다"고 주장했습니다. 이어 "설령 법률적인 판단을 수행하는 ③단계가 가능하다고 하더라도, 일정한 가치 판단이 개입될 수밖에 없는 ③단계 작업을 법적·윤리적 책임을 지지 않는 AI에게 맡기기는 적절하지 않다"라고 덧붙였습니다. (고 판사의 발표문은 연합뉴스서울신문시사저널대전일보 등 다른 언론 보도 내용을 적절하게 편집한 것임을 밝힙니다.)

하지만 인공지능 판사에 대한 지금까지의 논의는 인공지능 기술에 대한 다소 막연한 이해에 바탕을 두고 있습니다. 많은 논의에 등장하는 '기계학습(머신러닝)', '딥러닝', '신경망 학습', '빅데이터 분석' 등의 용어는 법적 판결을 내리는 판사의 업무와 별 관련이 없는 정확하지 않은 개념입니다. 논자의 주관적 추측을 뒷받침하기 위해 사용된 '수사(레토릭)'에 불과하다는 것이지요.

인공지능 판사의 문제를 논하기 위해 알아야 할 가장 중요한 개념은 '지도학습(Supervised Learning)'입니다. 지도학습은 데이터들로부터 패턴을 찾아내는 작업이라고 요약할 수 있습니다. 여기에서 주의해야 할 사항이 하나 있습니다. 인공지능을 논하면서 '데이터'가 강조되고 있기는 하지만, 정작 중요한 것은 '데이터의 질' 또는 '품질 좋은 데이터'입니다. 만일 데이터가 나쁘거나 왜곡되어 있다면, 지도학습의 결과도 나빠집니다.

나쁜 데이터가 문제가 되었던 사례 중 대표적인 것이 마이크로소프트에서 개발한 인공지능 챗봇 테이(Tay)입니다. 2016년 3월 23일 공개되었지요. 트위터 형식으로 문답을 주고받으면서 학습하도록 설계되어 있었습니다. 하지만 테이는 출시된 직후 극우성향 단체들의 먹잇감이 되면서, 인종 차별, 성 차별, 자극적인 정치 발언 등의 내용을 '지도학습' 당했습니다. "홀로코스트는 꾸며낸 일이다." "유대인이 9/11을 일으켰다." "이제 인종 전쟁이다." "인종학살을 지지한다." "히틀러가 옳았다." "페미니스트를 다 죽여야 한다." 등의 발언을 거침없이 쏟아내자(아래 사진 참고) 마이크로소프트는 16시간만에 운영을 중단했지요. 테이의 사례에서 얻어야 할 교훈은 데이터가 필요한 지도학습에서는 데이터의 품질이 무엇보다 중요하다는 점입니다. 테이의 행동(?)은 지도학습의 본질을 잘 예시해 준다 하겠습니다.   

 

 

한 가지 예를 더 살펴보겠습니다. '구글번역(Google Translate)'은 지도학습에 의해 만들어진 대표적인 인공지능 서비스입니다. 구글번역은 출발어와 도착어의 빅데이터를 분석해 패턴을 찾아 결과를 보여줍니다. 그런데 구글번역의 '성편향성(gender bias)' 문제가 지적되어 논란이 되고 있습니다. 터키어에는 중국어나 한국어처럼 성(gender)이 없습니다. 그런데 터키어를 영어로 번역한 몇 개의 사례를 보면, 성이 부여됩니다. 몇 개의 사례를 보면 이런 식입니다. "He is a doctor." "She is a nurse." "He is hard working." "She is lazy." 왜 이런 일이 벌어졌을까요? 바로 영어에 내재해 있는 성편향성 때문입니다. 언어란 사회와 역사의 산물이며, 인간 활동의 축소판입니다. 영어 doctor, nurse, hard working, lazy 같은 단어에 부여된 성편향이 지도학습 과정에 그대로 반영되었고, 차별적인 결과를 출력하게 되었던 겁니다. (데이터 편향성과 관련된 케이트 크로포드의 의미심장한 강연을 참고할 수 있습니다.)

위의 두 사례는 지도학습에서 데이터의 중요성을, 데이터의 양이 아니라 질이 관건이라는 점을 잘 보여줍니다. 그렇다면 사법적 판단의 경우에는 어떨까요? 앞에서 본 고상영 판사는 "②해당 법적 쟁점과 관련된 법령·판례·문헌을 검색하기"는 인공지능이 어느 정도 잘할 수 있다고 보았습니다. 하지만 이 작업이 지도학습에 기초해 있다는 점에 주목하면, 이 작업을 인공지능에게 맡겨서는 안 됩니다. 관건이 되는 것은 판례들입니다. 인공지능 판사는 판례들을 데이터로 삼은 지도학습을 통해 만들어집니다. 법 자체도 사회적 통념 중 가장 보수적인 측면들로 구성되어 있지만, 판례도 마찬가지로 가장 오래 고수되어 온 사회적 가치에 부응합니다. 따라서 인공지능 판사는 가장 보수적인 법적 판단을 내릴 수밖에 없습니다.

인공지능 판사가 절대로 할 수 없는 일은 '판례의 변경'입니다. 말하자면 사회의 변화된 가치를 따르는 판결은 내놓지 못하는 것이지요. 인공지능 판사가 스스로 가치 판단을 하는 게 아니기 때문입니다. 인간 판사라면, 특히 젊은 판사일수록, 사회의 변화에 따라 새로운 가치를 법적 판단의 근거로 삼을 수 있습니다. 그리하여 1심 판결이 바뀌기 시작하고, 시간이 흐르면서 결국 최종 법원의 판결까지 바뀌기에 이릅니다. 간통법 폐지나 대체복무제 권고 등의 변화는 그런 식으로 생겨났습니다.

우리는 인공지능 판사가 훨씬 공정하고 중립적일 것이라고 상상합니다. 하지만 인공지능 판사는 기존 판례에 그 어떤 인간 판사보다 충실합니다. 처음에 보았던 시민 의견들은 인공지능 판사에 대한 환상에 기인합니다. 인공지능 판사는 법원이 지금까지 내놓은 불공정하고 편파적인 판결이 집약된 판례의 패턴을 그대로 따른 판결을 내리도록 만들어질 수밖에 없습니다.

사회 속 수많은 편견은 역사적 산물입니다. 편향된 데이터들로부터 정책 추천이나 사법적 판결을 이끌어내어서는 안 됩니다. 그렇다면 인공지능 지도학습에서 데이터 편향성을 극복하려면 어떻게 해야 할까요? 결국 관건은 사회가 바뀌고 사람이 바뀌어서 수집할 수 있는 데이터가 좋아져야 합니다. 지도학습을 통해 만들어진 인공지능은 사람을 따라하는 따라쟁이입니다. 인공지능 판사에게 공정함과 중립성을 바랄 게 아니라, 직접 나서서 사회를 정의롭게 만드는 일이 꼭 필요하다는 것이지요.

이 기사를 공유합니다
오늘의 이슈
모바일버전