[AI와 정치] “AI가 정치에 선용되는 것보다 악용되는 것부터 막아야”
  • 성기노 기자
  • 승인 2025.03.12 13:46
  • 댓글 0
이 기사를 공유합니다

챗GPT를 개발한 '오픈AI' CEO인 샘 올트먼. /사진=연합뉴스
챗GPT를 개발한 '오픈AI' CEO인 샘 올트먼. /사진=연합뉴스

[인더스트리뉴스 성기노 기자] AI가 정치에 이점을 가져다줄 것이라는 예측은 여전히 유효하다. AI는 지금까지 정치 신인들이 해내지 못했던 정교한 홍보전략을 데이터를 적극 활용해 해결해줄 수 있다. 정치 신인들이 가장 어려움을 겪는 막대한 컨실팅 비용을 절감할 수 있게 해주는 것이다.

특히 후원금 모금에도 AI의 획기적인 조력이 도입될 수 있다. AI는 유권자의 관심사와 기부 성향을 분석해 맞춤형 후원 요청 메시지를 보낼 수 있다. AI는 후원 데이터를 분석해 어떤 그룹이 후원할 가능성이 높은지 예측해주기도 할 것이다. 챗봇을 적극 활용해 후원 안내문을 정교하게 만들고 후원 전환 비율도 높일 수 있다.

하지만 AI가 정치에 주는 특장점보다 그 활용이 가져다줄 폐해가 더 심각하다. 현재 정치권은 윤석열 대통령의 비상계엄 선포와 탄핵 정국으로 상당히 불안하고 무질서한 갈등 상황이 지속되고 있다. 과거같으면 레거시 미디어에서 여야의 극단적인 갈등과 ‘가짜 정보’에 대해 어느 정도 필터링 역할을 했고 그것이 일종의 갈등 증폭 진정제 역할을 했다.

하지만 지금은 누구나 AI라는 ‘정치적 도구’를 이용해 가짜뉴스를 유포할 수가 있고 그 부작용을 제어하고 조정할 ‘매개자’가 전혀 없다. 더불어민주당이 최근 ‘여론 검열’이라는 부정적 반응을 무릅쓰고 ‘민주파출소’라는 가짜뉴스 대응팀을 만든 것도 정당이 가짜뉴스로 인해 입을 피해를 최소화하는 자구책의 일환일 수 있다.

국민의힘도 지난해 말 미디어특위 소속으로 ‘가짜뉴스 대응단’을 만들어 본격적인 활동에 들어갔다. 가짜뉴스로 입은 피해는 그 환산도 어렵고 일단 유포가 되면 ‘피해 복구’도 할 수 없다. 어떻게 해서든 선제적으로 대응해서 유포 단계부터 적극적으로 막을 수 없는 것이다.

그런데 2020년에 트위터(X로 개칭)에서 봇이 무차별적으로 확산시키는 가짜뉴스가 2016년보다 감소했다는 통계가 있다(박재형 2022). 그 이유는 두 가지다. 트위터(X)와 같은 기업이 봇을 감지하고 차단하는 능력이 높아졌다고 한다. 이밖에도 사람들이 봇이 만든 콘텐츠를 더 잘 알아차리고 이를 외면하는 능력이 향상되었다는 것이다.

그런데 최근의 정치는 이성적인 관전자보다 감상적이고 악의적인 ‘참여자’에 의해 크게 좌우되는 측면이 강하다. AI가 만든 딥페이크나 유튜브와 같은 플랫폼을 매개로 생산된 가짜뉴스가 무분별하게 유포되고 또 그 가짜뉴스가 특정 지지층을 중심으로 빠르게 확산하고 있다. 그런 ‘퍼나르기식 알고리즘의 확산’이 무엇보다 문제다.

전문가들은 “확증편향으로 양극단화 되는 현상을 막을 확실한 방법은 현재로서는 없다”라고 단언한다. AI에 의한 가짜뉴스 유포가 한국 정치의 가장 큰 폐해로 자리 잡고 그것이 사회문제가 되는 악순환이 이어질 것이라는 얘기다. 이는 한국 정치만의 문제가 아니라 전 세계적인 현상이다.

구글 AI. /자료=연합뉴스
구글 AI. /자료=연합뉴스

AI가 생산하는 각종 가짜뉴스나 딥페이크의 부정적 영향을 차단하고 예방하기 위해서는 결국 ‘사람의 이성적 판단’만이 생명이다. 미디어 리터러시가 중요한 이유다. AI가 생성하는 왜곡된 정보나 가짜뉴스를 분별해내고 그것을 비판적으로 받아들이는, ‘이성의 힘’에 대한 교육을 강화해야 한다.

미국과 유럽 등은 이미 미디어 리터러시의 중요성을 깨닫고 그 교육을 의무화하는 법적 근거를 지속적으로 마련하고 있다. 하지만 우리는 아직 미디어 리터러시 교육 자체가 법제화되어 있지 않다. 그동안 입법 시도가 있었지만 여전히 제자리걸음이다.

AI를 활용한 가짜뉴스는 대량으로 생산돼 단 시간내에 순식간에 확산할 수 있다는 점에서 거의 통제가 불가능하다. 더욱이 그 유포의 주체가 특정 정치세력이거나 북한이나 테러 단체 등일 경우 문제는 더 심각해진다.

특정 집단이 기간이 정해진 선거 등에서 ‘봇’이라고 불리는 수천, 수만개의 가짜 계정으로 동영상이나 가짜뉴스를 플랫폼에 자동 게재하고 살포할 경우 잘못된 사실을 바로잡을 시간도 없이 결과가 나오게 된다.

그래서 전문가들은 AI가 가져다줄 정치에 대한 ‘이익’에 집중하기보다 그 부정적 영향을 최소화하는 게 급선무라는 지적을 한다. 이원태 전 한국인터넷진흥원장(KISA)은 기자와의 인터뷰에서 “AI가 정치에 긍정적으로 활용되는 이점이 많지만 특정 알고리즘에 의한 가짜뉴스와 딥페이크 생산이 갈수록 지능화 고도화 되면서 인간이 그것들을 컨트롤하는 것 자체가 불가능해지고 있다”라고 말했다.

이 전 원장은 특히 유튜브 등에서 생산되는 각종 가짜뉴스를 걸러내기 위해 최소한의 알고리즘을 규제해야 한다고 주장하지만 미국에 본사를 두고 있는 구글은 한국 정치권의 그런 요구에 대해 들은 척도 하지 않는다고 한다.

이 전 원장은 “국회에서 여야를 막론하고 적절한 알고리즘 규제를 공언하고 있는데 미국이 통상압력을 무기로 적극적으로 막고 있다. 그러는 사이에 AI가 생산한 각종 가짜뉴스가 마치 진실인 것처럼 정치를 오염시키고 있다. AI가 정치적으로 선용(善用)되는 것을 강조하기보다 그 악용(惡用) 사례를 분석하고 예방하는 제도적 뒷받침이 없으면 앞으로 AI가 정치판을 좌지우지하는 불행한 사태가 올 것”이라고 경고했다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.