Micro-learning

인공지능의 판결은 사람보다 공정할까?

'유전무죄', '전관예우'라는 말은 인간의 재판이 공정하지 않은 현실을 보여주며 '로봇판사'에 대한 기대를 불러오고 있습니다. 인간의 기대처럼 인공지능의 판결은 정말 사람보다 공정할까요? 구본권 기자님의 지식연구소 영상을 통해 알아봅시다.

다툼을 해결하기 위한 제도적 장치인 재판은 어느 사회에서나 가장 신뢰받는 기관과 제도를 통해 운영되어야 합니다. 그런데 많은 이들이 현실은 그렇지 못하다고 생각하기에, 어떤 상황에서도 공정하게 판결할 ‘로봇판사’를 도입하자는 의견에 힘이 실리고 있는 것 같습니다.

사실, 스포츠에서는 로봇심판이 이미 현실화되었습니다. 2006년 세계 4대 메이저 테니스대회인 US오픈에서 비디오 판독 장비인 호크아이(Hawk-Eye)가 처음 도입되어2017년 11월 이탈리아 경기에서는 심판 10명 중 선심 9명을 호크아이로 대체하기도 했습니다. 모든 공의 인(in)-아웃(out)을 로봇 심판의 판단에 맡긴 것입니다.

그런데 인공지능은 오히려 새로운 차별을 만들고 있습니다. 2015년 구글이 출시한 스마트폰용 사진앱 ‘구글 포토’는 사진을 인식해 자동 분류하고 태그를 붙이는데, 한 흑인의 얼굴 사진에 ‘고릴라’라는 태그를 달아 문제가 됐습니다.
구글만이 아닙니다. 미국의 몇 개 주는 형사재판에서 알고리즘 ‘콤파스(COMPAS)’를 사용하고 있습니다. 피고의 범죄 참여, 생활 방식, 성격과 태도, 가족과 사회적 배제 등을 점수로 환산해 재범 가능성을 계산하고 판사에게 구속 여부를 추천하는 알고리즘입니다. 그런데 이 콤파스가 흑인을 차별한다는 사실이 2016년 밝혀졌는데요, 흑인의 재범 가능성을 백인보다 2배 위험하다고 판단하고 무고한 흑인들을 수감시켰다고 합니다.

위 사례들처럼 인공지능이 차별과 편견 가득한 판단을 하는 사례가 많습니다. 알고리즘은 방대한 데이터를 머신러닝으로 학습하는데, 입력하는 데이터의 특성에 따라 차별적 결과가 만들어지는 것이지요.

인공지능은 과거 데이터에 의해서만 판단하기 때문에 편견과 통념을 피할 수 없고 새로운 문제에 대한 창의적 해결이 불가능한 거죠. 알고리즘의 효용성이 높지만 “공정성이라는 철학적 개념을 수학적 표현으로 바꿀 때마다 그 미묘함, 유연성, 융통성을 잃게 된다”고 전문가들은 말합니다.

오히려 알고리즘을 누가 어떤 목적으로 설계하고, 그것이 운용되면 누구에게 어떠한 결과가 생기는지를 따져보는 게 중요합니다. 알고리즘은 그 자체로 공정하고 객관적인 게 아니라, 사람이 디자인한 것이라는 점에서 설계자의 의식적·무의식적 지향과 의도가 개입될 수밖에 없습니다.

공정한 판단이라는 수고롭고 어려운 과제를 기계가 대신 해줄 수 있다고 생각하는 것은 위험합니다. 우리가 인공지능과 알고리즘 등 기계의 구조를 파악하고 통제할 수 있는 한도 안에서 기계에 특정한 부분을 위임할 수 있을 따름입니다.

재판과 정치는 간단하게 답이 나오지 않는 사람들 간의 다툼과 사회적 갈등을 조정하기 위해 만들어진 제도입니다. 완벽하지는 않아도 인간다운 유연성을 갖춘 제도죠. 부분적으로는 기계의 도움을 받을 수 있겠지만 정답이 없는 이런 문제는 앞으로도 여전히 사람의 몫이 될 겁니다.

영상은 [과기人 지식연구소]를 통해 제공되고 있습니다.

☞영상 바로가기 (로그인 후 영상 보기가 가능합니다)

“지인과 기사를 공유해보세요”
맨위로 이동