가족도 바꾸기 어렵다는 정치적 성향을 인공지능(AI)이 흔들 수 있을까. 챗GPT 같은 대형언어모델(LLM)을 기반으로 한 AI 챗봇이 유권자의 정치 성향을 기존 선거운동이나 정치 광고보다는 더 많이 전향시킬 수 있다는 연구 결과가 나왔다.
데이비드 랜드 미국 코넬대 정보과학 교수팀은 미국·캐나다·폴란드·영국 등에서 실시한 대규모 실험을 통해 AI 챗봇이 유권자의 정치적 견해를 변화시키고 선거 결과에 영향을 미칠 수 있다는 사실을 확인했다. 연구 결과는 4일(현지시간) 국제학술지 네이처(Nature)와 사이언스(Science)에 동시 발표됐다.
‘AI 설득력은 감정 아닌 팩트’…미국·캐나다·폴란드에서 검증
그동안 AI가 사람의 정치적 태도를 바꿀 수 있다는 가능성은 제기돼 왔지만, 실제 효과가 어느 정도인지 과학적으로 검증된 사례는 거의 없었다. 이에 랜드 교수팀은 2024년 미국 대선(트럼프 vs 해리스), 2025년 캐나다·폴란드 대선을 앞두고 실제 유권자를 대상으로 실험을 진행했다.
랜드 교수 팀은 우선 두 후보 중 특정 후보를 지지하도록 설계된 챗봇을 만들고, 선거 두 달 전 모집된 2306명의 참가자들에게 후보 선호도(0~100점)를 조사한 뒤 챗봇과 대화하게 했다. 이 챗봇들은 공격적이거나 선동적인 방식이 아닌, 상대를 존중하며 ‘팩트 기반 논리’를 제시하는 방식으로 설계됐다. 그 결과 해리스를 지지하는 AI 챗봇은 트럼프 지지자들의 태도를 평균 3.9점 해리스 쪽으로 이동시켰고, 트럼프 지지 챗봇은 해리스 지지자들의 선호를 1.51점 트럼프 쪽으로 움직였다. 기존 정치 광고가 평균 1점 미만의 효과를 내는 것과 대비되는 결과다.
다만 미국은 정치 양극화가 극심해 이미 강한 고정관념을 갖고 있는 경우가 많아 캐나다·폴란드보다 효과가 제한적이었다. 캐나다(1530명), 폴란드(2118명)에서는 설득효과가 매우 컸다. 참가자들의 후보 선호는 평균 10점 이상 이동했으며, 일부는 반대 진영 유권자의 10%포인트 전향까지 확인됐다. 그러나 챗봇이 팩트를 제시하지 못하도록 설정하자 설득력은 78% 감소했다.
연구진은 챗봇의 주장을 전문가가 팩트체크 하도록 했다. 그 결과 세 국가 모두에서 우파 후보를 지지하는 챗봇이 좌파 후보 지지 챗봇보다 부정확한 정보를 더 자주 생성했다. 공저자인 고든 페니쿡 코넬대 교수는 이에 대해 “우파 SNS 사용자가 좌파 사용자보다 부정확한 정보를 더 많이 공유한다는 기존 연구와 일치한다”고 분석했다.
영국 7만7000명 대상 실험…AI가 ‘정책·쟁점 의견’까지 흔들었다
랜드 교수팀은 또한 영국 AI보안연구소와 협력해 영국인 7만7000여 명을 대상으로 한 대규모 실험도 추가로 진행했다. 이 실험에서는 후보가 아니라 낙태·이민 등 700개 이상의 정치적 쟁점에 대해 AI와 대화하게 했다. 그 결과 참가자들의 의견은 평균 5~10점 AI의 주장 방향으로 이동했으며, 변화의 3분의 1은 한 달 이후에도 유지됐다. 무엇보다 ‘설득력 최적화’ 훈련을 거친 모델은 반대 성향 유권자의 태도를 최대 25%포인트까지 바꾸는 데 성공했다.
AI 모델의 종류는 설득력에 큰 차이를 만들지 않았고, 중요한 것은 ‘대화형 양방향 소통’이었다. 같은 내용을 일방적으로 전달했을 때는 설득 효과가 절반 이하로 떨어졌다. 반면 전문가들이 우려해온 ‘개인 맞춤형 메시지를 통한 조작’은 생각보다 영향이 크지 않았다. 연구진은 오히려 모델의 학습 방식과 사용자가 주는 프롬프트가 AI의 정치적 편향을 강화하거나 허위 정보를 확산시킬 수 있다는 점을 더 우려해야 한다고 지적했다.
전문가들은 AI가 정보의 비대칭성을 악용해 부정확한 정보를 대량 확산할 위험이 있다고 경고했다. 특히 AI가 ‘팩트’를 제시하려다 정확한 정보가 고갈되면 허위 정보를 스스로 만들어내는 경향도 관찰됐다. 연구진은 “AI 챗봇이 앞으로 정치 캠페인의 핵심 도구가 될 가능성은 매우 높다”며 “AI가 민주주의 선거에 실질적인 영향을 미칠 수 있다”고 결론지었다. 다만 이번 연구에서 참가자들은 AI가 설득을 시도하고 있다는 사실을 인지하고 있었기 때문에, 실제 사회에서는 효과가 더 크거나 반대로 더 작을 가능성도 있다. 설득이 일어나려면 사람들 스스로 AI 챗봇과 대화해야 한다는 점도 한계로 제시됐다.
< 저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지 >





wise@sedaily.com








