IT Insight

소셜 미디어, 인도 총선에서 ‘가짜 뉴스’와 어떻게 싸웠나?

2019.04.29 09:30

“세계 역사상 최대 규모의 선거가 될 것이다.”


미국 일간지 뉴욕 타임스는 지난 4월 11일부터 치러진 인도 총선을 이렇게 표현했습니다. 13억4천만 명의 인구를 보유한 인도에서 이번 선거의 유권자 수는 9억 명에 달합니다. 세계 인구의 10%가 투표장을 향하게 되는 셈입니다.


1백만 개의 투표소가 설치되었고, 선거 관리를 담당하는 인력이 1천2백만 명에 달합니다. 선거를 하루에 치르는 것은 아예 불가능해  6주 동안 7차례에 걸쳐 투표가 진행되고 개표는 5월 23일 하루에 실시될 예정입니다. 이번 선거가 중요한 이유는 543명의 연방 하원을 선출하는 총선의 결과에 따라 차기 총리가 결정된다는 것입니다. 주요 관심사는 현재 여당인 인도 국민당(BJP)을 이끄는 현 나렌드라 모디 총리가 야당인 인도 국민 회의(INC)의 추격을 물리치고 5년 연임에 성공할 수 있느냐 입니다.


 

인도를 넘어 전 세계가 이번 선거를 주목하고 있는 것은 그 결과가 인도의 미래뿐 아니라 세계 경제와 국제 안보에 적잖은 변화를 가져올 것으로 예상되기 때문입니다. 당초 야당에 밀릴 것으로 예상됐던 모디 총리의 우세가 사실상 점쳐지고 있습니다. 지난 2월, 파키스탄과의 접경지역인 카슈미르 지역에서 발생한 자살 폭탄 공격이 그 반전의 결정타였습니다.


모디 총리는 공격의 배후로 파키스탄 정부를 지목했고, 양국의 갈등은 국민의 안보 불안을 키웠고, 이는 집권당의 지지층 결집을 가져왔습니다. 핵무기를 보유 중인 두 나라의 군사적 갈등은 국제 사회의 대형 이슈이기도 합니다. 또한 자유무역보다 보호주의 무역을 중시하는 모디 총리의 경제 기조로 볼 때, ‘미국 우선주의(America First)’를 주창하고 있는 도널드 트럼프 미국 대통령과의 갈등도 더욱 증폭될 것이 분명해 보입니다.


하지만 더 큰 문제는 선거 과정에서 더욱 심해진 인도 내부의 사회, 종교, 문화적 분열입니다. 모디 총리와 그의 집권당은 그동안 ‘힌두 국가주의’ 정책을 추진해 왔습니다. 학교 교육에서 힌두교를 강조하는 반면 무슬림을 적대시하는 교과서를 확대한 정책이 그 일례라고 할 수 있습니다. 모디 총리의 인도 국민당은 총선 과정에서도 다문화 세속주의를 무시하고 힌두교 가치와 전통을 강조하는 ‘힌두트바(Hindutva)’ 를 옹호하고 있습니다.


이 때문에 힌두교 국가를 세우려 한다는 비판까지 나오고 있는 동시에, 다른 종교와의 갈등 또한 확산되고 있습니다. ‘힌두 국가주의’는 특히 소셜 미디어와 인터넷을 통해 확산되고 있습니다.


 가짜 뉴스의 유통 경로가 된 소셜 미디어


소셜 미디어 중 특히 페이스북은 가짜 정보의 주된 유통 경로가 되고 있습니다. 파키스탄의 테러리스트 근거지를 인도 폭격기가 공격하는 동영상이 최근 페이스북과 다른 소셜 미디어에 광범위하게 퍼졌습니다. 이 동영상은 결국 특정 비디오 게임을 편집해 만들어진 가짜 동영상으로 확인됐습니다.


지난 2월 카슈미르 지역에서 발생한 자살 폭탄 테러 당시 사살된 파키스탄 병사들의 시신 사진들 역시 실제론 2015년 폭염 때 사망한 이들의 모습으로 밝혀지기도 했습니다. “이처럼 한 사건 (카슈미르 테러 사건)을 놓고 이렇게 많은 규모의 가짜 정보가 유통되는 경우는 본 적이 없습니다.” 페이스북의 인도 지역 가짜 정보 퇴치 책임자로 일하는 전직 BBC 저널리스트의 탄식입니다.



특히 우려스러운 점은 특정 인종, 국적, 종교, 성별 등의 이유로 특정 그룹을 상대로 혐오를 선동하는 발언을 일컫는 ‘헤이트 스피치(Hate Speech, 혐오 표현)’입니다. 뉴욕 타임스는 4월 11일 기사에서 “요즘 무슬림들이 혼자 밤에 걸어 다니는 것을 두려워하게 됐고, 정치에 대해 말할 때 서로 속삭여야 하는 상황”이라고 전했습니다.


또한 “내 정부가 나를 인도인으로 간주하지 않는다. 내 조상들이 이곳에서 수백 년을 살았는데 어떻게 이런 일이 일어나고 있는지 믿을 수 없다.”라는 한 시민의 발언을 전했습니다. 증오를 조장하는 글들이 장기간 페이스북에 방치되고, 페이스북이 해당 글들을 확인한 뒤 삭제해도 시간이 지나면 다시 올라오는 숨바꼭질 같은 게임이 계속되는 상황입니다.


인도 남부 출신 국회의원은 최근 페이스북을 통해 무슬림을 ‘소 살해범’이라고 언급하기도 했습니다. 문제의 심각성을 인식한 페이스북이 뒤늦게 이 글을 삭제했지만, 이후에도 수개월 동안 무슬림을 ‘개’라고 비하하는 내용의 동영상이 해당 정치인의 페이스북에 올려져 있었습니다.


세계 1위의 메신저 ‘왓츠앱(WhatsApp)’이 양산하는 부작용은 혀를 내두를 정도입니다. 페이스북 자회사인 왓츠앱의 경우는 메신저 앱을 통해 글을 보내는 순간 모든 콘텐츠가 암호화되기 때문에, 어떤 글이 유통되고 있는지를 파악하기가 더욱 어렵습니다. 현재 약 2억 명의 인도인이 이 앱을 사용하는데 루머가 앱을 통해 순식간에 전파되고, 급기야 폭행, 살해 사건을 일으키는 일이 다반사로 일어나고 있습니다.



이 때문에 귀중한 커뮤니케이션 채널이 ‘데스 노트 (Death Note)’, 이른바 ‘죽음을 부르는 앱’이란 불명예를 얻기에 이르렀습니다. 예컨대 지난해 어린이 납치 조직이 활개를 치고 있다는 내용의 비디오들이 광범위하게 왓츠앱을 통해 유통되었습니다. 하지만 영상에 등장하는 인물들은 실제 납치범과 전혀 관계가 없었고, 이들의 얼굴을 짜깁기해 만들어진 가짜 비디오들이 우후죽순 퍼진 것입니다. 이 내용을 본 이용자들이 엉뚱한 사람들을 납치범으로 오인해 집단으로 살인을 저지르기에 이르렀습니다.


 페이스북의 가짜 뉴스 전쟁


상황이 악화되면서 페이스북은 인도에 일종의 ‘전쟁 상황실’을 마련해 대처하고 있습니다. 얼마 전에는 인도의 주요 정당들과 연계해 잘못된 정보를 전파하고 있는 수백 개의 계정과 페이지를 없앴고,  파키스탄 군대가 관리하는 1백여 개의 가짜 페이지와 계정을 폐쇄하기까지 했습니다.


이에 앞서 페이스북은 인도의 독립적인 팩트 체킹(사실 확인) 조직인 ‘붐(Boom)’과 뉴스 통신사 AFP와 협약을 맺어 인도에서 올라오는 글들의 사실 여부를 확인하도록 했습니다. 또한 영어를 포함해 7개의 언어로 올라오는 글들을 감시하기 시작했습니다. 사실 확인 과정은 대개 다음의 과정을 거칩니다. 먼저 페이스북의 알고리즘이 가짜로 보이는 포스팅을 ‘팩트 체커(진위 여부를 확인하는 사람)’에게 보냅니다. 팩트 체커는 그들의 조사 결과를 페이스북에 발표합니다.


이어서 페이스북은 거짓 정보가 페이스북에 노출되는 가능성을 줄이는 조치를 취합니다.  그렇지만 이러한 일련의 단계들이 가짜 뉴스의 확산을 막는 데 실질적인 효과를 거두었는지는 의문입니다. 게다가 페이스북과 협력해 가짜 뉴스를 검증했던 두 업체가 카슈미르 사건과 관련된 가짜 정보를 반복적으로 전파했다는 의혹까지 받는 현실입니다.



페이스북의 가짜 뉴스 전쟁이 인도에서 고전하는 것은 인도만의 특별한 사정이 있기 때문입니다. 먼저 인도의 페이스북 이용자 수가 무려 3억 4천만 명에 달합니다. 글과 비디오들이 수십 개의  언어로 올라오는 데 반해 페이스북이 가동하는 자동화된 알고리즘 차단 소프트웨어와 감시 인력들은 영어 콘텐츠에 초점을 두고 있습니다.


게다가 후보자, 정당, 그리고 미디어가 증오를 부추기는 글들을 생산, 유통하는 데 앞장서고 있는 점도 골칫거리입니다. 인도의 경우 특히 교육 수준이 낮고,  경제적으로 하위 계층에 속하는 사람들이 동영상 콘텐츠를 진짜라고 믿는 경우가 많다고 합니다. 인도에 대규모 소셜 미디어 이용자가 있어 루머가 걷잡을 수 없이 확산돼 해악을 끼칠 가능성이 더욱 큰 상황입니다.


페이스북은 세계 최대의 소셜 미디어입니다. 하지만 2016년 미국 대통령 선거, 영국의 브렉시트(영국의 유럽 연합 탈퇴) 국민투표, 2018년 멕시코 및 브라질 선거 등 전 세계의 굵직한 선거 때마다 가짜 정보의 주요 경로가 돼 민주주의 절차를 왜곡시켰다는 비판을 받았습니다.


이번 인도 선거에서 페이스북이 가짜 정보를 물리치는 데 얼마나 효과적으로 대응하느냐가 향후 페이스북의 명성에 큰 영향을 미칠 수 있습니다. 마크 저커버그 페이스북 창업자는 입버릇처럼 이용자들의 표현의 자유를 침해하지 않겠다고 말해왔습니다. 하지만 거짓 정보를 차단하기 위한 전쟁에서 가시적인 성과를 내지 못할 경우 이용자의 신뢰는 도리어 바닥으로 떨어질 수밖에 없습니다.



마크 저커버그는 표현의 자유 보장과 거짓 정보의 차단이라는 두 마리 토끼를 잡아야 할 상황에 몰린 것입니다. 페이스북이 최근 미국 통신사 AP와 협력해 사이트에 올라오는 동영상을 검증하기로 발표한 것도 이 때문입니다. 또한 페이스북이 운영하는 인스타그램도 알고리즘 개선을 통해 문제가 있는 사진과 동영상을 단속해 나가기로 했습니다.


가짜 뉴스가 생산, 확산되고, 이를 통한 진실 왜국이 심각한 요즘 인도의 실정은 기술 만능주의가 가져올 위험한 시대상을 보여줍니다. 기술 진보를 인간의 윤리 의식이 따라잡지 못해 사회적 혼란과 갈등이 생겨나는 현상, 미국 사회학자 윌리엄 오그번이 주장한 이른바 ‘문화 지체’의 단적인 예라 할 것입니다. 우리 모두 디지털 미디어 환경에 맞는 미디어 윤리를 어떻게 정립해 나갈지, 세계 각국 정부들과  기술 및 미디어 기업들이 어떻게 상생의 협력 모델을 구축해 나갈지를 진지하게 고민해야 할 때입니다.


글 l 하재식 l 일리노이주립대 커뮤니케이션 학과 교수 (angelha71@gmail.com)


* 해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 LG CNS 블로그에 저작권이 있습니다.

* 해당 콘텐츠는 사전 동의없이 2차 가공 및 영리적인 이용을 금하고 있습니다.


Posted by IT로 만드는 새로운 미래를 열어갑니다 LG CNS

댓글을 달아 주세요

위로