◆ 할루시네이션(Hallucination)은 인공지능(AI)이 정보를 처리하는 과정에서 발생하는 오류를 말한다. 영어의 원래 뜻은 환각이나 환영, 환청이다.

챗GPT 등 인공지능을 통한 정보 활용이 보편화되면서 인공지능이 내놓는 여러 답변 등이 정확하지 않을 때를 통칭해 '할루시네이션'이라고 부른다.

최근 챗GPT와 같은 생성형 AI가 질문의 맥락과 관련 없거나 사실이 아닌 내용을 마치 옳은 답처럼 내놓는 현상이 비일비재해 논란을 일으키고 있다.

정보통신업계에서는 인공지능이 데이터값을 처음부터 잘못 학습할 때 할루시네이션이 발생한다고 본다.

인공지능이 데이터를 학습해 질문에 가장 근접한 답변을 내놓지만 이에 대한 진위를 매번 정확하게 확인하지 못하는 데 따른 것이다.

할루시네이션과 관련된 문제는 악의적 조작 정보를 통한 가짜 뉴스를 생성하고 특정 성별이나 종교에 대한 편견이 더해질 때 사회 문제화될 가능성이 크다는 우려가 나온다.

챗GPT를 만든 오픈AI의 샘 올트먼 CEO도 인공지능의 잠재력을 인정하면서도 할루시네이션에 대한 위험성을 경고하며 관련 규제가 필요하다고 주장하고 있다. (편집해설위원실 변명섭 기자)

(서울=연합인포맥스)

(끝)

본 기사는 인포맥스 금융정보 단말기에서 07시 30분에 서비스된 기사입니다.
저작권자 © 연합인포맥스 무단전재 및 재배포 금지