Issue Today
AI

연구팀이 존재하지 않는 눈 질환을 만들었다 — AI는 수 주 만에 진짜로 믿었다

·5분 읽기·
AI의료 허위 정보챗봇AI 신뢰성딥페이크 정보

존재하지 않는 병을 만든 연구자

스웨덴 예테보리대학의 의학 연구자 알미라 오스마노비치 툰스트룀은 AI 시스템이 의료 허위 정보를 어떻게 처리하는지 시험하기 위해 의도적으로 가짜 질환을 설계했다. 그가 만든 '빅소니마니아(Bixonimania)'는 블루라이트 과다 노출로 발생한다는 가짜 눈 질환이다. 연구팀은 가짜 연구 논문을 작성하고, 실재하지 않는 과학자를 만들어냈으며, 실제 학술 자료처럼 보이도록 정보를 공개 서버에 게시했다.

AI는 수 주 만에 진짜로 받아들였다

실험 결과는 충격적이었다. 여러 AI 챗봇들이 빅소니마니아를 실제 의학적 상태로 설명하기 시작했고, 일부는 구체적인 증상 목록, 수치, 치료 방법까지 제시했다. 가짜 정보가 AI를 거쳐 학술 글쓰기 영역까지 퍼져나가는 현상도 관찰됐다. 과학적 문체로 작성된 내용이라면 사실 여부를 확인하지 않고 그대로 수용하는 AI의 구조적 취약점이 드러난 셈이다.

이후 일부 AI 도구는 개선을 거쳐 빅소니마니아를 가짜로 식별하기 시작했지만, 응답은 여전히 일관적이지 않다.

허위 정보 증폭 기계로서의 AI

전문가들은 이번 실험이 단순한 흥미 사례를 넘어 AI 시스템의 구조적 위험을 보여준다고 분석한다. 소셜미디어에서 이 실험이 확산되자 X(구 트위터) 사용자들의 반응도 엇갈렸다. 한 사용자는 "AI가 개인 나쁜 행위자보다 훨씬 빠른 속도와 규모로 사기성 연구를 흡수하고 증폭시킬 수 있다"고 지적했다.

학술 논문 허위 게재 문제 자체는 AI 이전에도 존재했다. 그러나 AI가 가세하면서 허위 정보의 확산 속도와 범위가 전례 없는 수준으로 커질 수 있다는 점이 이번 실험의 핵심 경고다.

핵심 요점

  • 스웨덴 연구자가 가짜 눈 질환 '빅소니마니아'를 날조, AI 챗봇들이 수 주 내 진짜로 수용
  • AI는 과학적 문체의 정보를 사실 확인 없이 받아들이는 구조적 취약점 노출
  • 의료 허위 정보 확산에서 AI가 증폭기 역할을 할 수 있다는 실증적 경고
AI의료 허위 정보챗봇AI 신뢰성딥페이크 정보