금융사는 AI(인공지능) 서비스의 윤리원칙을 제정하고 전담조직을 마련, 위험관리 정책을 세워 위험요인을 통제해야 한다.

8일 금융위원회는 디지털금융협의회 데이터 분과회의를 열고 금융 분야 AI 가이드라인을 확정해 발표했다. 가이드라인은 AI 금융거래와 대고객서비스를 적용한 모든 금융업권을 대상으로 AI 윤리원칙으로 만들고 회사별로 가치와 AI 활용 상황 등에 따라 원칙과 기준을 수립해야 한다. 가이드라인은 준비 기간을 거쳐 연내에 시행된다.

금융산업에 AI가 확대되면서 금융 소외계층을 포용하고 금융거래 비용이 낮아지는 등 장점이 있으나 AI 안전성 등에 대한 우려가 있는 만큼 가이드라인을 제정해 사회적 신뢰도를 높이겠다는 것이다.

또한 AI의 잠재적 위험을 평가, 관리할 구성원의 역할과 책임, 권한을 기획-설계-운영-모니터링 등 서비스의 전 단계에 걸쳐 구체적으로 정의해야 한다. 특히 AI의 의사결정이 개인의 금융거래 계약에 중대한 영향을 미치는 경우에는 이에 대한 내부통제와 승인 절차 등을 마련하고 책임자를 지정하는 등 위험관리를 강화해야 한다.

가이드라인에는 AI 학습에 사용되는 데이터에 대한 조사를 강화하고, 개발 과정에서 개인신용 정보 오·남용이 없도록 정보보호를 강화하는 내용도 포함됐다.

이 기사를 공유합니다
저작권자 © 플레이포럼 무단전재 및 재배포 금지