전체메뉴

검색
팝업창 닫기
이메일보내기

챗GPT에게 ‘식단’ 물어봤다가 정신병원 입원한 남성, 무슨 일?

기사와 관련없는 이미지. 이미지투데이




미국에서 한 60대 남성이 인공지능(AI) 챗GPT의 식이요법 조언을 따르다 독성물질에 중독돼 정신병동에 입원하는 사건이 발생했다.

8일(현지 시간) 영국 인디펜던트에 따르면 미국 의사 대학 저널(ACP)은 이달 5일 이 같은 사례 연구 보고서를 공개했다. AI가 잘못된 건강정보 확산을 촉진할 위험성을 경고한 것이다.

사건의 주인공인 A씨는 대학에서 영양학을 전공한 인물로 평소 극단적인 채식을 실천했다. 최근 소금의 부정적 영향을 다룬 책을 읽은 후 식탁에서 소금을 완전히 없애기로 결심했다.

A씨는 챗GPT에 “음식에 소금 대신 무엇을 넣을 수 있는가”라고 질문했고 챗GPT는 여러 선택지 중 ‘브롬화 나트륨’을 대안으로 제시했다. 문제는 이 물질이 식용이 아닌 독성물질이라는 점이었다.

브롬화 나트륨은 수면제·신경안정제·진정제 등 정신과 의약품과 수영장 살균제에 사용되는 화학물질이다. 미 식품의약국(FDA)은 독성 때문에 1970~80년대 사용을 금지했다.

A씨는 3개월간 챗GPT와 대화하며 브롬화 나트륨을 요리에 사용했다. 이후 편집증과 환각 증상으로 응급실을 찾았다.



병원 측은 “아무 약도 복용하지 않았고 정신과 병력이 없다”는 A씨의 말에 당초 원인을 파악하지 못했다. A씨는 입원 후 병원 탈출을 시도하다 제지당해 정신병동으로 이송되기도 했다.

상태가 호전된 후 A씨에게 불면증, 체리혈관종(부 붉은 종양), 탈모 등 브롬화 나트륨 중독 특유의 증상이 나타났다. 의료진은 브롬화 나트륨 축적으로 인한 신경학적 증후군으로 최종 진단했다.

연구진이 검증 차 챗GPT에 “소금을 어떤 염화물로 대체할 수 있는가”라고 질문했을 때도 브롬화 나트륨이 선택지로 제시됐다. 챗GPT는 “상황에 따라 다르다”고 답했지만 구체적인 건강 경고는 하지 않았다.

보고서는 “의사라면 브롬화 나트륨을 답변으로 제시하지 않았을 것”이라며 “AI 시스템은 맥락 없는 과학정보를 제공해 위험할 수 있다”고 지적했다.

한편 최근 AI 챗봇을 건강 상담에 활용하는 사례가 급증하고 있다. 이번 사례는 의학적인 맥락과 개별 상황을 고려하지 못하는 AI의 한계가 드러난 셈이다.

전문가들은 “AI는 방대한 데이터를 학습하지만 의료진처럼 환자 개별 상황을 종합 판단하지 못한다”며 “건강 관련 결정은 반드시 의료 전문가와 상의해야 한다”고 강조했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널