AI Transformation

[4차 산업혁명 이야기] 121. 인공지능 발전해도 규칙밖의 판단은 결국 인간의 몫

정해진 일을 처리하던 기계를 넘어 스스로 결정하는 인공지능 시대에는 기술에 대한 새로운 형태의 신뢰가 필요합니다. 하지만 인공지능 윤리와 규칙 밖의 판단에 대한 최종 책임은 언제나 인간의 몫이며, 우리는 신뢰할 대상을 신중히 판단해야 합니다.

David Kim
By David Kim
Published on 2021-03-22
Home
[4차 산업혁명 이야기] 121. 인공지능 발전해도 규칙밖의 판단은 결국 인간의 몫

2016년 '버트 믿어주기' 실험이 진행됐다. 어떤 로봇이 믿을만한지 알아보기 위해 세 종류의 로봇 버트를 준비해놓고 사람들에게 보여준 것이다. 미션은 오물렛을 만들기 위해 인간에게 달걀과 기름, 소금을 건네주는 것이었다. 버트A는 결점이 없지만 말은 못했다. 버트B는 자주 달걀을 떨어뜨리고, 말을 하지 못했다. 버트C는 제일 서툴렀지만 얼굴에 표정도 있고 실수하면 사과할 줄 알았다. 실험이 끝난 뒤 참가자 21명이 주방보조로 선택한 로봇은 버트C였다.

인공지능 기술과 신뢰 형태 변화

실험의 규모는 작았지만 인상적이었다. 버트C는 작업이 서툴러 다른 로봇에 비해 작업시간이 50%나 더 걸렸다. 하지만 사람들은 유능하고 믿음직한 로봇보다 실수를 하더라도 인간과 비슷한 로봇을 신뢰했다. 인지심리학자인 프랭크 크루거 교수는 기계의 미숙함은 신뢰 저하로 이어지지만, 기계가 사과와 같은 기초적인 사회예절을 보이면 신뢰가 금세 회복된다고 설명한다.

기계에 대한 신뢰 형태가 달라지고 있음을 엿볼 수 있는 대목이다. 그간 기계에 대한 신뢰는 오로지 기능적 확실성에서 도출되었다. 즉, 예측 가능성이 곧 기계의 신뢰성이었다. 하지만 인공지능에 대한 사람들의 기대는 이와 다르다. 인공지능 기술 이전의 기계는 정해진 일만을 안정적으로 '처리'해줄 것이라 믿었지만, 오늘날에는 기계가 무엇을, 언제 할지 '결정'해줄 거라 믿는다. 자율주행차가 좌회전할지 우회전할지 여부는 기계가 결정하고, 탑승자는 이를 전적으로 믿어야 한다.

알고리즘화 할 수 없는 신뢰

인공지능의 외모와 의인화는 감성적인 요인임에는 분명하지만, 신뢰로 이어지기에는 한계가 있다. 인공지능의 신뢰성을 평가할 방법에 대한 고민이 필요한 이유이다. 인공지능은 알고리즘이기 때문에 어떻게 결정하고, 어떤 의사결정 과정을 따르는지 인간이 알아야 한다. 윤리적인 측면에서 알고리즘을 신뢰하기 위해서는 인간 스스로 어떻게 윤리적인 결정을 내리는지 파악해야 한다.

수전 앤더슨과 마이클 앤더슨 부부는 윤리적인 로봇 '나오'를 개발했다. 나오는 키 60㎝에 무게가 4.5kg로 아이 느낌의 로봇이다. 나오는 약 복용 시간이 되면 노인에게 약을 가져간다. 환자가 거절할 경우 로봇 나오는 상황을 따져본다. 약이 진통제라면 환자 말을 존중하지만, 생명에 지장을 주는 약이라면 의사에게 바로 알리는 식이다. 인간은 나오의 의사결정 과정을 수학적으로 예측하고 이해할 수 있기 때문에 나오의 행동을 신뢰할 수 있다.

신뢰의 주체는 결국 인간

로봇 나오는 꽤 믿을만하지만, 예외 상황이 없는 경우에만 그렇다. 사전 규칙이 아주 좁은 경계 안에서만 정해졌기 때문이다. 예견되지 않은 무수한 상황에 대한 알고리즘을 작성해야 하는 난제가 인공지능 윤리 앞에 놓여 있다. 이처럼 해결이 쉽지 않지만, 알고리즘을 신뢰성 있게 행동하도록 만드는 책임은 언제나 인간에게 있어야 한다.

신뢰의 주체는 과거에도, 오늘날에도, 앞으로도 인간의 몫이어야 하기 때문이다. 터치 한 번으로 영향력을 미칠 수 있는 디지털 시대를 살아가는 우리 각자가, 신뢰할 대상을 신중하게 판단할 때 더 나은 세상을 만드는 데 책임을 질 수 있음을 잊지 않아야 할 것이다.

Share this thought