(서울=연합인포맥스) 챗지피티(ChatGPT)는 오픈AI가 개발한 챗봇이자 대화형 인공지능이고, 대용량 데이터로 학습돼 기존 챗봇에 비해 훨씬 유연하고 효과적인 대화가 가능하다. 이미 업무, 자료 수집, 아이디어 제공 등 다방면으로 우리에게 편의를 제공하고 있으며 지난 2022년 11월 출시 후 짧은 기간 내에 전세계적으로 엄청난 파급력을 가지는 프로그램으로 자리잡았다. 항상 그렇듯 기술혁신은 제도를 앞지르며 그로 인한 규제공백 상태는 불가피하다. 챗지피티 이용에 관한 법적 쟁점 몇 가지를 정리하면서 조속히 관련 제도를 마련해야 할 필요성에 대해 살펴본다.

가장 먼저 챗지피티와 저작권의 문제다. 챗지피티에 키워드 몇 개만 입력하면 상당한 수준의 그림과 가사, 소설, 시나리오를 뚝딱 만들어낸다. 우리나라 저작권법에서는 '저작물'은 '인간의 사상 또는 감정을 표현한 창작물'이라고 정하고 있다. 그렇다면 챗지피티와 같은 '인공지능'이 만든 산출물에 대해서는 인간이 만든 것과 동일하게 저작권이 인정될 수 있을까. 저작권이 인정될 수 있다면 누가 저작권자가 되는가. 이러한 논의는 결국 '콘텐츠는 인간이 생성한다'는 전통적인 개념에 대한 도전이다.

미국 저작권청은 작년 인공지능에 의해 생성된 자료를 포함하는 저작물에 대한 가이드라인을 발표하고 그러한 저작물을 등록하고자 하는 경우 그 창작에 사람의 기여 정도 및 그 부분을 명시해야 한다고 정한 바 있다. 즉, 인공지능은 인간과 함께 공동저작자로 등록되는 경우에 한해 예외적으로 저작권을 인정할 수 있는 것이다. 실제로 만화책 'Zarya of the Dawn'의 AI 생성 이미지에 대해서는 Midjourney(이미지 생성 인공지능 프로그램)가 인간과 공동작업이 아닌 단독으로 생성한 이미지라는 이유로 저작권을 인정하지 않은 바 있다.

우리나라 문화체육관광부 역시 지난해 12월 발표한 'AI 저작권 가이드라인'을 통해 '원칙적으로 AI 생성물은 저작물로 볼 수 없으며 저작권 등록 대상도 될 수 없다'고 정했으며, 인간이 기획·명령한 경우에도 인간의 창작적 개입이 있었다고 보기 어려워 마찬가지라고 판단했다. 다만 인간의 독창성이 인정되는 경우에는 저작권 등록이 아닌 '편집저작물'로 등록은 가능하다.

두번째는 챗지피티와 개인정보 유출의 문제다. 챗지피티는 정보주체에게 허락을 받지 않고 개인정보를 수집해 이를 유출할 수 있고, 정확하지 않은 개인정보를 제공할 수 있다는 점 등에서 유의할 점이 있다. 이탈리아 등 일부 국가에서는 GDPR(EU의 개인정보보호규정) 위반을 근거로 이탈리아 내 챗지피티 접속을 차단하고 조사를 진행했고, 이에 따라 이용자로 하여금 채팅내역 기록을 해제할 수 있도록 하고, 이용자가 미성년자인 경우 보호자의 동의를 받도록 하는 등 프라이버시 보호를 강화한 바 있다.

챗지피티를 업무에 활용하는 개인의 입장에서도 챗지피티의 잘못된 사용으로 인해 선의의 피해자가 나오지 않도록 각별히 주의해야 한다. 특히 챗지피티에 기업비밀을 입력해서 챗지피티가 이를 학습하면 다른 이용자의 유사 질문에 대해 이미 학습한 기업비밀을 활용한 답변을 내놓을 수 있고, 이러한 방법으로 기밀이 유출되면 형법, 산업기밀유출방지법 등으로 처벌될 소지가 있다. 그런데 챗지피티의 개별 이용자의 입장에서는 어느 범위까지 정보를 입력할 수 있는지 그 기준을 알기 어려워 가이드라인이 필요하다. 이에 대해 국내외 기업들은 챗지피티 활용 교육을 강화하거나, 업무에 챗지피티를 활용하려면 내부 인트라넷을 통하거나 허가를 받아 사용하도록 하는 등의 조치를 취하고 있으며, 특히 일부 로펌의 경우에는 자체적으로 인공지능을 활용한 프로그램을 개발해 고객정보 노출의 위험성을 줄이기 위한 노력을 하고 있다.

마지막 문제는 챗지피티 이용자를 위한 제도가 조속히 마련돼야한다는 것이다. 챗지피티는 업무와 학습의 효율을 높이고 검색엔진까지 대체하고 있는 혁신적인 툴이라는 것은 분명하다. 그러나 챗지피티 이용 시 위에서 살펴본 저작권과 개인정보의 문제 외에도, 챗지피티가 잘못된 사실이나 편향된 정보를 제공하는 경우 챗지피티가 생성한 산출물이 타인의 저작권을 침해하는 경우 등 여러 문제가 발생하며 그러한 경우 선의의 이용자나 제3자를 어떻게 보호할 것인지, 그 책임소재가 누구에게 있는지 등에 대해서는 아직 규정이 마련된 바 없다.

챗지피티에게는 그에 내재된 오류를 바로잡을 능력도, 윤리적인 문제를 스스로 해결할 능력도 갖고 있지 않으며 챗지피티의 이용자의 개별적인 판단에 맡겨둘 수 없는 문제도 많다. 챗지피티 등 인공지능 프로그램의 이용자를 위한 가이드라인과 법령 등 제도가 조속히 마련되어 혼란을 방지해야 하며 기술의 이용을 지나치게 제한하지 않으면서도 피해가 최소화될 수 있도록 적정한 수준의 규제를 통해 기술의 발전을 뒷받침할 수 있어야 한다.(법무법인(유) 충정 백신애 변호사)

jwchoi2@yna.co.kr

(끝)

본 기사는 인포맥스 금융정보 단말기에서 09시 00분에 서비스된 기사입니다.
저작권자 © 연합인포맥스 무단전재 및 재배포 금지