전체메뉴

검색
팝업창 닫기
이메일보내기

[동십자각] 'AI 산타'가 남긴 숙제

■박동휘 디지털편집부 차장


거실 구석, 반짝이는 크리스마스 트리 옆 커튼을 젖히고 붉은 옷의 산타가 나타났다. 나직이 “메리 크리스마스”라고 속삭인 그는 루돌프와 함께 창밖으로 유유히 사라졌다. 스마트폰 화면 속 6초짜리 영상을 본 초등학교 1학년 아들의 눈이 휘둥그레졌다. “아빠, 진짜 산타가 우리 집에 왔어!”

아이의 믿음을 지켜준 건 밤샘 기다림이 아니었다. 미리 찍어둔 거실 사진 한 장을 인공지능(AI) 비디오 생성기에 넣고 ‘인사하는 산타’를 주문한 결과다. 단 1분 만에 빚어낸 이 디지털 마법은 기자만의 비밀이 아니다.

올겨울 소셜네트워크서비스(SNS)는 생성형 AI가 만든 산타 영상으로 들썩였다. 과거 부모들이 어설픈 분장으로 땀 흘리던 수고를 챗GPT와 그록(Grok) 같은 AI 도구가 대신했다. 맘카페에는 ‘AI 산타 만들기’ 튜토리얼이 인기 게시글로 떠올랐다.

우리는 이제 물리 법칙까지 계산해 영상을 만드는 오픈AI의 소라(Sora), 구글의 비오(Veo) 같은 초고성능 AI 시대를 살고 있다. 많은 시간과 돈이 들던 시각특수효과(VFX)가 월 2만~3만 원 구독료면 누구나 손에 쥘 수 있는 도구가 됐다. 할리우드의 전유물이었던 기술이 평범한 아빠의 스마트폰 안으로 들어온 셈이다.

하지만 이 정교한 마법은 동심을 지키는 데만 머물지 않는다. 산타를 만들던 그 기술은 누군가에게 가짜뉴스를, 또 다른 누군가에게는 금융 사기 영상을 쥐여준다. 전문가조차 진위를 가리기 힘든 수준까지 기술이 진화하면서 영상은 더 이상 ‘사실의 보증수표’가 아니다.

딥페이크 범죄는 이미 임계점을 넘었다. 불특정 다수를 노리던 과거와 달리 이제는 SNS에서 수집한 개인정보로 ‘맞춤형 사기’를 친다. 가족의 목소리와 얼굴을 복제한 기술에 본인조차 속아 넘어간다. 경찰청에 따르면 올해 상반기 보이스피싱 피해액만 6421억 원으로 역대 최고치를 기록했다. 연말까지 합산하면 사상 처음으로 1조 원을 돌파할 기세다.



“영상으로 봤으니 진짜겠지”라는 오랜 믿음은 이제 치명적인 약점이다. 우리는 눈으로 본 것조차 의심하고 검증해야 하는 ‘불신의 시대’를 맞이했다. 아이러니하게도 아이에게 선물한 산타의 마법이 이 불신의 문을 여는 열쇠였던 셈이다.

AI를 멀리하는 게 답은 아니다. 2007년 아이폰이 삶의 양식을 바꿨듯 AI는 우리 삶에 필수불가결한 존재가 될 것이다. 중요한 건 기술의 양면성을 직시하는 눈이다. 가짜와 진짜를 비판적으로 걸러내는 ‘미디어 리터러시’는 이제 선택이 아닌 생존 전략이다. 기술의 파도를 타고 나아가되 그 깊이와 위험을 살피는 능력. 이것이야말로 2026년을 앞둔 우리에게 놓인 가장 시급한 숙제다.





< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >
주소 : 서울특별시 종로구 율곡로 6 트윈트리타워 B동 14~16층 대표전화 : 02) 724-8600
상호 : 서울경제신문사업자번호 : 208-81-10310대표자 : 손동영등록번호 : 서울 가 00224등록일자 : 1988.05.13
인터넷신문 등록번호 : 서울 아04065 등록일자 : 2016.04.26발행일자 : 2016.04.01발행 ·편집인 : 손동영청소년보호책임자 : 신한수
서울경제의 모든 콘텐트는 저작권법의 보호를 받는 바, 무단 전재·복사·배포 등은 법적 제재를 받을 수 있습니다.
Copyright ⓒ Sedaily, All right reserved

서울경제를 팔로우하세요!

서울경제신문

텔레그램 뉴스채널