챗GPT의 환각 현상과 데이터 정확성 문제: OpenAI의 도전과 과제

관리자

챗GPT의 환각 현상과 데이터 정확성 문제: OpenAI의 도전과 과제

챗GPT가 전 세계 무대에 등장한 지 2년이 넘었으며, OpenAI는 여러 면에서 이를 발전시켰지만 여전히 많은 장애물이 남아 있습니다. 그 중 가장 큰 문제 중 하나는 환각 현상으로, 거짓 정보를 사실로 제시하는 것입니다. 최근 오스트리아의 옹호 단체인 노이비(Noyb)는 챗GPT가 노르웨이 남성을 살인자로 잘못 언급한 구체적인 사례를 들어 OpenAI에 두 번째 불만을 제기했습니다.

사태를 더욱 악화시키는 것은, 이 남성이 챗GPT에게 자신에 대해 알고 있는 것을 물었을 때, 챗GPT가 그가 두 자녀를 살해하고 세 번째 자녀를 살해하려다 21년형을 선고받았다고 잘못 진술했다는 점입니다. 이 환각 현상에는 자녀의 수, 성별, 고향 이름 등 실제 정보도 포함되어 있었습니다.

노이비는 이 응답이 GDPR을 위반했다고 주장합니다. 노이비의 데이터 보호 변호사 요아킴 소더베르그는 “GDPR은 명확합니다. 개인 데이터는 정확해야 합니다. 그렇지 않을 경우 사용자는 그것을 수정할 권리가 있습니다”라고 말했습니다. 그는 또한 “챗GPT 사용자에게 챗봇이 실수를 할 수 있다는 작은 면책 조항을 보여주는 것은 분명히 충분하지 않습니다. 거짓 정보를 퍼뜨리고 마지막에 모든 말이 사실이 아닐 수 있다는 작은 면책 조항을 덧붙이는 것은 용납할 수 없습니다.”라고 덧붙였습니다.

챗GPT의 환각 현상으로 주목할 만한 다른 사례로는 한 남성을 사기 및 횡령 혐의로 고발한 사건, 아동 학대 법원 기자를 비난한 사건, 법 교수에게 성희롱 혐의를 제기한 사건 등이 여러 매체에 의해 보도되었습니다.

노이비는 2024년 4월에 챗GPT의 환각 현상에 대한 첫 번째 불만을 OpenAI에 제기했으며, 이는 공인 인물의 잘못된 생년월일을 중심으로 이루어졌습니다. OpenAI는 시스템에 이미 존재하는 정보를 변경할 수 없다고 주장하며, 불만자의 생년월일을 삭제하거나 업데이트해 달라는 요청을 거부했습니다. 대신 챗GPT는 “실수를 할 수 있습니다.”라는 면책 조항을 제공했습니다.

모든 사람이 실수를 한다는 속담이 있지만, 엄청나게 대중적인 AI 기반 챗봇의 경우 그 논리가 정말로 적용될까요? OpenAI가 노이비의 최신 불만에 어떻게 대응할지 지켜봐야 할 것입니다.

댓글 남기기