◆ 설명 가능한 AI(XAI·Explainable AI)란 사용자가 인공지능 시스템의 최종 결과를 이해하고 설명할 수 있도록 정보를 제공하는 인공지능(AI)을 말한다.

XAI는 사용자가 AI 시스템의 동작과 최종결과를 이해하고, 올바르게 해석해 결과물이 생성되는 과정을 설명할 수 있도록 해주는 기술이다.

예를 들어 AI 시스템이 고양이 이미지를 분류할 경우, 기존 시스템은 고양이 이미지의 여부만을 판별하지만 XAI는 털·수염 등 그렇게 판단하게 된 근거까지 제시하는 방식이다.

미국 국가표준기술연구원(NIST)이 발표한 XAI의 네 가지 원칙에 따르면 AI 시스템은 모든 산출물에 대해 증거 혹은 그 이유를 제시해야 한다.

또 개별 이용자에게 의미가 있거나 이해할 수 있는 설명을 제시해야 하고, 해당 설명은 산출물을 생성하는 시스템 프로세스를 적절히 반영해야 한다.

마지막으로 시스템은 충분히 신뢰할 수 있을 만한 산출물을 생성할 것이란 믿음을 전제로 운영돼야 한다.

우리나라에서도 AI를 통한 의사결정으로부터 소비자를 보호하기 위해 지난 2017년부터 과학기술정보통신부의 '설명가능인공지능 연구센터' 등을 통한 연구가 진행 중이다.

최근 금융위에서는 상품 추천, 여신 심사 등 금융 분야에서의 AI 의사결정 확대에 대비해 최근 XAI의 도입·운영과 관련한 기준 검토가 필요하다고 밝혔다.

설명가능성이 확보되지 않을 경우 AI가 여신을 불승인하면 소비자가 사유를 알지 못해 장기간 금융접근성이 제한되는 등 우려가 있기 때문이다.

이에 금융위는 연구용역을 통해 XAI 정의와 요건, 구현 사례 등을 포함한 안내서를 발간할 계획이다. (정책금융부 김예원 기자)

(서울=연합인포맥스)

(끝)

본 기사는 인포맥스 금융정보 단말기에서 07시 30분에 서비스된 기사입니다.
저작권자 © 연합인포맥스 무단전재 및 재배포 금지