(헬스&사이언스)메타, 가이드라인 변경…증오 발언 범람 우려
디지털증오 대응센터(CCDH), 메타의 콘텐츠 규제 97% 중단될 가능성 전망
새로 도입된 커뮤니티 노트, 독립적 팩트체크 기능 수행할 수 있을지 논란
2025-02-28 09:35:27 2025-02-28 09:35:27
온라인 증오 발언 일러스트(사진=게티 이미지)
 
[뉴스토마토 서경주 객원기자] 지난달, 메타는 자사의 플랫폼인 페이스북과 인스타그램에 포스팅된 내용 중에 어떤 발언을 허용하거나 금지할지 정의하는 가이드라인에 대한 대대적인 변경을 발표했습니다. 메타는 여러 규칙의 적용 방식을 변경하고, 여성, LGBTQ+ 커뮤니티, 이민자 및 기타 소외된 집단을 대상으로 하는 발언에 대한 제한을 완화할 것이라고 밝혔습니다.
 
디지털 증오 대응 센터(The Center for Countering Digital Hate, CCDH)는 한국시간으로 26일 발표한 보고서에서 최근 논란이 된 메타의 가이드라인 변경으로 증오 발언을 비롯해 콘텐츠 규제의 97%를 중단할 수도 있다고 밝혔습니다. CCDH는 특히 메타가 성인 노출, 성행위, 괴롭힘, 폭력 선동, 자살 및 자해와 관련된 콘텐츠 규제 조치를 적극적으로 계속 시행할 것인지 명확히 밝히지 않은 데 대해 우려를 나타냈습니다.
 
CCDH의 설립자이자 현 대표인 임란 아메드는 “메타의 전례 없는 규제정책 철회는 사용자, 특히 아동과 신분상의 정체성만으로 잔혹함과 적대감을 겪는 소외 계층에 대한 책임을 방기하는 것”이라며 다음과 같이 덧붙였습니다. “CCDH가 조사한 바에 따르면 메타는 콘텐츠 규제 정책을 철회하기 이전에 ‘위험의 우려가 있는(at risk area)’ 약 2억7700만개의 콘텐츠에 대해 적극적인 조치를 취했다. 메타는 이제 어떤 정책을 더 이상 적극적으로 시행하지 않을 것인지, 그리고 수억 개의 유해 콘텐츠에 대한 조치를 중단할 경우, 사용자 보호를 위해 어떤 계획이 있는지 분명히 밝혀야 한다. CCDH의 이전 연구에서도 확인된 바와 같이, 커뮤니티 노트(Community Notes)는 플랫폼의 안전 기능에 긍정적인 추가 요소지만, 전담 콘텐츠 관리팀과 AI 탐지 시스템을 완전히 대체할 수 없으며, 앞으로도 그럴 수 없을 것이다.”
 
커뮤니티 노트는 현재 X가 운영하는 사실확인 기제로, 사용자들이 게시물의 맥락을 보완하는 설명을 추가할 수 있도록 설계된 시스템입니다. 즉 플랫폼이 잘못된 정보나 증오 발언을 판단해 삭제하는 대신 사용자들이 잘못된 정보나 맥락이 부족한 게시물에 대해 정보 공유와 자유로운 토론을 통해 스스로 판단하게 하는 것입니다. 메타도 올 초 독립적인 사실확인을 종료하고 ‘커뮤니티 노트’를 도입한다고 발표했습니다. 그러나 기존의 플랫폼 자체의 콘텐츠 검열 방식을 포기하고 사용자들의 자발적이고 자율적인 수정·보완과 토론에 의존하는 방식이 대규모로 생산되는 허위 정보와 증오 발언에 효율적으로 대응할 수 있을지 논란이 계속되고 있습니다.
 
메타의 대변인 라이언 대니엘스는 “CCDH의 방법론은 결함이 있으며 중요한 전제들이 타당하지 않다”고 말했습니다. 그러나 구체적으로 CCDH의 방법론에 어떤 결함이 있는지 설명하지 않았으며 새로운 정책에 따라 얼마나 많은 콘텐츠가 차단될 것인지, 자체 예측도 내놓지 않았습니다. 메타는 최근 보고서에서 증오 발언, 협박, 괴롭힘 같은 내용의 콘텐츠를 자체적으로 3억4600만건 삭제했다고 밝혔습니다. CCDH는 메타가 발표한 건수 가운데 최대 20%가 오류일 수 있다는 주장에 맞춰 추정치를 2억7700만건으로 조정했다고 설명했습니다.
 
메타는 지난 1월 7일, 심각하지 않은 가이드라인 위반에 대해서는 포스팅 이후에 신고가 접수되면 이에 따라 조치를 취할 것이며 “테러리즘, 아동 성 착취, 마약, 사기” 같은 “고위험 위반”에 대해서는 선제적으로 대응할 것이라고 밝혔습니다. 그러나 증오 발언이나 협박 그리고 폭력 선동 등에 관해서는 언급하지 않았습니다.
 
CCDH는 메타에 다음과 같은 질문을 던졌습니다. 유해 콘텐츠 수백만 건에 대한 조치를 중단한다면 사용자 안전을 어떻게 보장할 것인지? 허위 정보와 사회적 양극화를 줄인다고 말한 기존 정책을 포기한 이유가 뭔지? 독립적인 사실 확인을 커뮤니티 노트로 대체하면 선거 관련 허위 정보는 어떻게 방지할 것인지? 비인간적인 증오 발언을 다시 허용할 것인지?
 
메타를 비롯한 SNS 플랫폼들은 악성 콘텐츠를 제거하는 것을 규제나 검열 대신, 모더레이션(moderation) 즉 ‘완화 혹은 절제’라는 용어로 표현합니다. 그들의 말하는 모더레이션과 표현의 자유 사이의 균형은 미묘한 문제입니다.
 
증오 발언, 허위 정보, 괴롭힘과 같은 유해 콘텐츠로부터 개인을 보호하는 것은 당연합니다. 특히 공적 담론에서 중요한 역할을 하는 플랫폼에서는 더욱 그렇습니다. 선제적 규제는 다수의 선량한 사용자들에게 안전한 온라인 공간을 제공하는 역할을 합니다. 그런 이유에서 사회적 약자 그룹을 보호하기 위해 더욱 필요합니다.
 
표현의 자유라는 원칙 또한 민주 사회에서 양보할 수 없는 가치입니다. 과도한 모더레이션은 건강한 토론이나 다양한 의견을 억제하거나 주류 의견과 다른 사람들의 목소리를 제한할 수도 있습니다. 따라서 모더레이션이 검열로 흐르지 않도록 해야 하며, 논란이 될 수 있는 아이디어들도 자유롭게 교환될 수 있도록 해야 합니다.
 
플랫폼이 유해 콘텐츠를 효과적으로 차단하면서도 자유로운 표현을 침해하지 않는 균형을 찾는 것이 관건입니다. 투명한 모더레이션 절차, 명확한 가이드라인, 그리고 소셜 미디어 회사들의 책임이 그 균형을 찾는 데 핵심적인 역할을 합니다. 이번 CCDH의 메타에 대한 보고서가 메타의 정책에 어떤 영향을 미칠지 주목되는 이유입니다. 
증오 발언 (사진=ChatGPT 생성 이미지)
 
<참고>
디지털 증오 대응 센터(The Center for Countering Digital Hate, CCDH)는 온라인 증오 발언과 허위 정보 퇴치를 목적으로 하는 비영리 단체입니다. 2018년에 설립된 CCDH는 런던과 워싱턴 D.C.에 사무소를 두고 있으며, 연구, 공공 캠페인, 정책 옹호 활동을 통해 온라인에서 유해 콘텐츠 확산을 막기 위해 노력하고 있습니다.

2023년, 일론 머스크의 X는 CCDH가 부적절한 데이터 스크래핑을 통해 오해를 불러일으키는 보고서를 작성했다고 주장하며 소송을 제기했습니다. 2024년 3월 25일, 미국 지방법원 판사는 이 소송이 CCDH의 발언을 처벌하려는 시도라고 판시하며 소송을 기각했습니다.

CCDH가 미국에서는 민주당, 영국에서는 노동당을 지원하는 정치적 편향성을 보인다는 일부 비판에도 불구하고 온라인 피해를 해결하기 위해 입법 및 플랫폼 차원의 변화를 촉진하고 소셜 미디어 플랫폼의 “STAR(Safety, Transparency, Accountability, Responsibility)”를 강조하고 있다는 점에서 그 긍정적인 역할을 인정받고 있습니다.  
 
서경주 객원기자 kjsuh57@naver.com

이 기사는 뉴스토마토 보도준칙 및 윤리강령에 따라 강영관 산업2부장이 최종 확인·수정했습니다.

ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지

지난 뉴스레터 보기 구독하기
관련기사