"인간과 AI의 조화로운 공존 고민 필요"

윤송이 엔씨소프트 사장(CSO, 최고전략책임자).

"AI의 기술로 발견된 편견과 부당함은 오히려 편견이 어디서 오게 되었는지 풀 수 있는 실마리가 될 수 있다"

윤송이 엔씨소프트 글로벌 최고전략책임자(사장)가 AI(인공지능)는 인간 본성을 드러내고 이에 대한 근본적인 질문을 던지고 대답을 요구하는 계기를 제공하기도 한다며 이 같이 말했다.

현재 윤송이 사장은 에릭 슈미트 전 구글 회장, 제리 양 야후 공동 창업자, 제프 딘 구글 AI 책임자 등과 함께 미국 스탠포드대학 인간 중심 AI연구소(Human-Centered AI Institute, HAI)의 자문 위원을 맡고 있다. 

윤송이 사장은 4일 사내 블로그에 올린 'AI(인공지능) 시대의 윤리'라는 제목으로 올린 글에서 '트롤리 딜레마(Trolley Problem)'로 서문을 열었다. 트롤리 딜레마는 다섯 사람을 구하기 위해 한 사람을 희생시키는 것이 도덕적으로 허용 가능한지에 대한 질문이다. 

윤 사장은 "자율 주행 자동차가 주행 중 맞닥뜨릴 수 있는 여러 상황에서 도덕적 판단을 프로그래밍 하기 위해서는 판단의 기준은 누가 정할 것인지, 어떤 기준으로 판단할 것인지에 대한 논의가 선행되어야 한다"고 말했다.

오픈 소스로 흔하게 쓰이는 얼굴 인식 알고리즘이 피부색과 성별에 따라 인식률 차이가 있다는 2018년 미국 메사추세츠공과대학(MIT)에서 발표한 내용을 근거로 상위 인지 문제에 도달하기 전 특정 인종에 불합리한 의사 결정을 하게 될 수도 있다는 것.

그는 "미국 법원에서 보석 결정을 위해 AI 기반 소프트웨어를 쓰고 있지만 특정 인종과 소득 계층의 피고인에게 불리한 결과를 내는 경향이 있다는 문제도 지적되고 있다"며 "우리 제도가 가지고 있는 편견과 불합리함을 그대로 학습한 AI 시스템이 불편해지고 있다"고 진단했다.

데이터 기반으로 약을 만드는 정밀의료도 마찬가지라고 했다. 인종과 체질, 성별에 따라서 어떤 약이 더 효과적일지 차이가 있다는 건 쉽게 유추할 수 있지만 이러한 약을 만드는데 쓰이는 데이터의 대부분은 병원을 자주 찾거나 이런 실험에 기꺼이 참가할 시간과 여유가 있는 사람들의 것이라는 설명이다.

기계가 더 공정하고 객관적일 것이라 믿는 이 같은 '믿음의 오류'는 결과의 정당화를 초래하게 된다고 우려했다.

그러면서도 "AI는 인간 본성을 드러내고 이에 대한 근본적인 질문을 던지는 계기를 제공하기도 한다"며 "AI의 기술로 발견된 편견과 부당함은 오히려 편견이 어디서 오게 되었는지 풀 수 있는 실마리가 될 수 있다"고 분석했다.

이어 "기술이 가지는 파급력이 커지는 만큼 이를 다루고 만드는데 따르는 책임도 커지고 있다"며 "AI와 디지털 기술의 도입이 미루어 놓았던 문제들의 신속한 해결을 촉구하고 있다"고 목소리를 높였다.

윤송이 사장은 "우리가 만들어 내는 기술이 사회에 어떤 영향을 미치는지, 의도하지 않았던 결과를 초래할 위험은 없는지 충분한 고민이 필요한 시점"이라며 "인공지능은 더 이상 하나의 새로운 기술에 그치지 않고 이 기술이 사회에 올바르게 작동하기 위해선 교육, 정책, 법률 등 다양한 부문에서 이 문제를 함께 고민해야 한다"고 강조했다.

이 기사를 공유합니다
저작권자 © 플레이포럼 무단전재 및 재배포 금지