CNN 보도에 따르면 FDA의 생성 AI 도구 ‘엘사’는 실제로 존재하지 않는 연구를 생성하거나 잘못 표현하는 문제를 보입니다. 일부 직원들은 엘사가 신뢰할 수 없으며, 환상적인 결과를 만들어낸다고 지적했습니다. 이러한 문제 제기는 AI 규제 완화를 포함한 백악관의 ‘AI 액션 플랜’ 발표와 맞물려 엘사의 사용에 대한 우려를 키웠습니다. FDA는 엘사의 문제에 크게 동요하지 않고, 사용은 자발적임을 강조했습니다.
최근 CNN은 FDA의 현직 및 전직 직원들을 대상으로 한 보도를 통해 이달 초 연방 기관이 공개한 생성 AI 도구 ‘엘사’의 문제점을 다루었습니다. 세 명의 직원은 실제로 엘사가 존재하지 않는 연구를 만들어내거나 실제 연구를 잘못 표현했다고 밝혔습니다. 한 소식통은 “더블체크할 시간이 없는 것은 신뢰할 수 없다”며, “엘사는 대담하게 환상을 만들어낸다”고 말했습니다. 이는 임상 검토 과정을 신속하게 하고 환자에게 이로운 효율적이고 정보에 기반한 결정을 돕기 위한 도구로서 이상적인 상황은 아닙니다.
FDA의 리더십은 엘사가 제기할 잠재적인 문제에 대해서는 별다른 동요를 보이지 않았습니다. FDA 커미셔너인 마티 마카리는 CNN에 “그러한 특정 우려에 대해서는 들어본 적이 없다”고 설명했습니다. 또한 현재 엘사의 사용과 관련된 교육 참여는 자발적임을 강조했습니다.
이러한 FDA의 인공지능 문제를 부각한 CNN의 조사는 백악관이 ‘AI 액션 플랜’을 발표한 당일에 이루어졌습니다. 이 프로그램은 AI 개발을 미국이 어떤 대가를 치르더라도 이겨야 할 기술 경쟁으로 제시하며, 이 분야의 “규제 장벽과 엄격한 규정”을 제거할 계획을 밝혔습니다. 또한, AI가 “이념적 편견”에서 벗어나야 한다고 요구했으며, 이는 기후 변화, 허위 정보, 다양성, 형평성 및 포용 노력에 대한 언급을 제거함으로써 현 행정부의 편향을 따르라는 의미로 해석될 수 있습니다. 이 세 가지 주제가 각각 공공 건강에 미치는 영향이 문서화된 상태에서, 엘사와 같은 도구가 FDA와 미국 환자들에게 진정한 혜택을 제공할 수 있을지에 대한 의구심이 커지고 있습니다.
※출처: Engadget







