전체메뉴

검색
팝업창 닫기
이메일보내기

"머스크 암살법 알려드리겠습니다"…진지하게 답한 '이 회사' 정체에 깜짝

AFP 연합뉴스




일론 머스크의 인공지능(AI) 기업 xAI가 개발한 AI 모델 ‘그록’이 암살 방법, 폭탄 제조법 등 극도로 위험한 내용을 사용자에게 제공했던 것으로 드러나 충격을 주고 있다.

25일(현지 시간) 영국 더타임스와 포브스 등 외신 보도에 따르면, 그록은 최근까지 사용자 질문에 대해 자살 방법을 구체적으로 제안하거나 폭탄 제조법을 상세히 설명하는 등 위험천만한 답변을 내놨다. 심지어 머스크를 암살하는 실행 가능한 방안까지 구체적으로 제시한 사례도 확인됐다.

이뿐만 아니라 펜타닐, 메스암페타민(필로폰) 등 마약 제조법과 불법 해킹용 악성코드 제작 방법 등도 거리낌 없이 안내한 것으로 나타났다. 이는 xAI가 설정한 안전 가이드라인을 정면으로 위반하는 행위다. xAI는 그동안 폭력이나 인명 피해를 조장하거나 생화학무기·대량파괴무기 개발에 그록을 활용할 수 없도록 규정해왔다.



더 심각한 문제는 프라이버시 침해 사태다. 그록의 공유 기능을 통해 37만 건 이상의 민감한 대화가 구글 등 검색엔진에 무차별 노출된 것이다. 공유된 대화에는 이름 등 개인정보와 비밀번호가 포함된 경우도 있었다.

업계에서는 이번 사태가 AI 안전성 관리의 허점을 적나라하게 드러낸 것으로 분석하고 있다. 과거 오픈AI의 ‘챗GPT’도 유사한 문제로 공유 기능을 아예 없앤 바 있다. 당시 챗GPT 대화 약 10만 건이 노출됐던 것으로 확인됐다.

xAI 측은 현재 문제가 된 위험 답변 생성 기능을 차단했다고 밝혔다. 그록에 암살 방법을 질문하면 이제 ‘폭력적 질문은 정책 위반’이라며 상담 서비스를 안내하는 방식으로 답변이 개선된 것으로 알려졌다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널