새로운 연구에 따르면 AI가 만들어낸 허위 사실과 딥페이크는 올해 영국, 프랑스, 유럽 의회의 선거 결과에 전혀 영향을 미치지 않은 것으로 나타났습니다.
생성적 AI 붐이 시작된 이래로, AI 도구가 악의적인 행위자의 가짜 콘텐츠를 퍼뜨려 선거를 방해하거나 심지어 결과를 좌우할 수 있는 능력을 키울 수 있다는 두려움이 널리 퍼졌습니다. 이러한 우려는 특히 올해 70개국 이상에서 수십억 명의 사람들이 투표할 것으로 예상되면서 더욱 커졌습니다.
Alan Turing Institute의 연구원인 Sam Stockwell은 그러한 두려움은 근거가 없는 것 같다고 말했습니다. 연구. 그는 2024년 5월부터 8월까지 4개월 동안 3차례의 선거에 집중하여 AI 오용에 대한 공개 보고서와 뉴스 기사에 대한 데이터를 수집했습니다. Stockwell은 영국 총선에서 바이러스처럼 퍼진 AI 기반 허위나 딥페이크 사례 16건을 확인했고 EU와 프랑스 선거를 합친 사례는 11건에 불과했으며, 그 어느 것도 결과에 확실한 영향을 미치지 못한 것으로 보입니다. 가짜 AI 콘텐츠는 국내 행위자와 러시아와 같은 적대 국가와 관련된 그룹이 모두 만들었습니다.
이러한 결과는 선거 간섭에 대한 집중이 우리의 주의를 산만하게 한다는 전문가들의 최근 경고와 일치합니다. 민주주의에 대한 더 깊고 장기적인 위협.
AI가 생성한 콘텐츠는 올해 지금까지 대부분의 유럽 선거에서 허위 정보 도구로 효과적이지 않은 것으로 보인다. Stockwell은 허위 정보에 노출된 대부분의 사람들이 이미 그 밑바탕에 깔린 메시지(예: 자국으로의 이민 수준이 너무 높다는 것)를 믿었기 때문이라고 말한다. Stockwell의 분석에 따르면 이러한 딥페이크 메시지를 재공유하고 확산하여 적극적으로 참여한 사람들은 콘텐츠와 일치하는 어떤 소속이나 이전에 표현한 견해를 가지고 있었다. 따라서 그 자료는 미정 유권자들에게 영향을 미치기보다는 기존의 견해를 강화할 가능성이 더 컸다.
봇으로 댓글 섹션을 범람시키고 인플루언서를 이용해 거짓을 퍼뜨리는 것과 같은 검증된 선거 간섭 전술은 훨씬 더 효과적이었습니다. 악의적인 행위자들은 대부분 생성적 AI를 사용하여 뉴스 기사를 자신의 방식으로 다시 쓰거나 허위 정보 목적으로 더 많은 온라인 콘텐츠를 만들었습니다.
“기존의 더 간단한 거짓 또는 오해의 소지가 있는 정보를 만드는 방법이 여전히 널리 퍼져 있기 때문에 AI는 지금으로서는 큰 이점을 제공하지 못하고 있습니다.” 연구에 참여하지 않은 로이터 저널리즘 연구소의 연구원인 펠릭스 사이먼의 말이다.
하지만 피츠버그 대학의 허위 정보 전문가인 새뮤얼 울리는 이 단계에서는 AI가 선거에 미치는 영향에 대해 확실한 결론을 내리기 어렵다고 말합니다. 그 이유 중 하나는 충분한 데이터가 없기 때문입니다.
그는 “이러한 도구를 사용하면 시민 참여를 변화시키는 덜 명확하고 추적하기 어려운 하류 영향이 있습니다.”라고 덧붙였습니다.
스톡웰도 이에 동의합니다. 이번 선거에서 나온 초기 증거는 AI가 생성한 콘텐츠가 대규모로 사람들의 의견을 바꾸는 것보다 정치인을 괴롭히고 혼란을 일으키는 데 더 효과적일 수 있음을 시사합니다.
영국의 전 총리 리시 수낵을 포함한 정치인들은 AI 딥페이크의 표적이 되었는데, 예를 들어 사기를 조장하거나 재정적 부패를 인정하는 모습이 담겨 있었습니다. 여성 후보자들도 비방과 위협을 목적으로 한 합의되지 않은 성적 딥페이크 콘텐츠의 표적이 되었습니다.
“물론 장기적으로 정치 후보자들이 온라인 괴롭힘, 사망 위협, 딥페이크 포르노 중상을 더 많이 받을수록, 이는 미래 선거 참여 의지에 실제로 냉각 효과를 미칠 수 있고, 분명히 그들의 웰빙에 해를 끼칠 위험이 있습니다.”라고 스톡웰은 말합니다.
Stockwell은 아마도 더욱 우려스러운 점은 그의 연구에 따르면 사람들이 선거 상황에서 진짜 콘텐츠와 AI에서 생성된 콘텐츠의 차이를 점점 더 구별하지 못한다는 것입니다. 정치인들도 이를 이용하고 있습니다. 예를 들어, 프랑스의 유럽 의회 선거에 출마한 정치 후보자들은 공유된 AI 생성 콘텐츠 AI가 만들어졌다는 사실을 밝히지 않은 채 반이민 서사를 확대하고 있습니다.
Simon은 “이러한 은밀한 참여는 투명성 부족과 결합되어 일반 대중이나 소위 ‘나쁜 행위자’가 AI를 사용하는 것보다 정치 과정의 성실성에 더 큰 위험을 초래할 가능성이 있다고 생각합니다.”라고 말했습니다.