인공지능(AI) 혁신을 이끄는 마이크로소프트(MS)의 이미지 생성 AI 서비스가 유해 콘텐츠를 거르는 안전망을 제대로 갖추지 못했다는 내부 경고가 나왔다.
CNBC에 따르면 셰인 존스 MS 수석 소프트웨어 엔지니어는 6일(현지 시간) 미국 연방거래위원회(FTC)에 자사의 AI 이미지 생성 도구인 ‘코파일럿 디자이너’ 대해 이같은 우려를 담은 서한을 보냈다. 그는 “지난 3개월 동안 더 나은 보호 장치를 마련할 때까지 해당 서비스를 중단하자고 촉구했지만 받아들여지지 않았다”고 주장했다. 코파일럿 다자이너는 오픈AI의 이미지 생성 모델인 ‘달리(DALL-E)’에 기반하고 있다.
존스 씨가 수 개월간 테스트한 결과 코파일럿 디자이너는 광범위한 분야에서 부적절한 콘텐츠를 여과 없이 생산했다. 그에 따르면 미성년자의 음주와 마약 복용, 성적으로 대상화된 여성 등 폭력적인 이미지는 물론 정치적 편견을 드러낸 콘텐츠가 무작위로 만들어졌다. 존스 씨는 “MS와 오픈AI가 지난해 10월 AI 모델을 공개하기 전부터 이러한 위험을 인지하고 있었다”며 소비자가 위험을 인식하도록 경고하고 성인 인증을 적용하는 등 조치를 취할 것으로 촉구했다.
정보기술(IT) 업계가 앞다퉈 AI 기술 개발에 속도를 내고 있지만 윤리적인 AI 활용과 관련해 잡음이 끊이지 않고 있다. 지난달에는 구글이 최근 AI 모델 제미나이에 이미지 생성 기능 서비스를 도입한 지 20여일 만에 중단했다. 세르게이 브린 구글 공동 창업자는 “우리는 분명히 이미지 생성을 망쳤다”며 “철저한 테스트가 이뤄지지 않았기 때문”이라고 자성했다. 존슨 씨는 1월에도 의회에 서한을 보내 “AI 이미지 생성 기술과 기업이 이러한 제품을 구축하고 마케팅하는 기업의 지배구조 및 책임 있는 AI 관행의 위험성을 조사해달라”고 요청했다. CNBC는 MS가 이에 대해 “회사 정책에 따라 모든 우려 사항을 해결하는 데 노력하고 안전을 더욱 강화하기 위해 최신 기술을 연구하고 테스트하는 직원들의 노력에 감사한다”고 밝혔다고 전했다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >