미국 크리스천데일리인터내셔널(CDI)은 캐나다 복음주의 협의회(EFC)가 음란물 플랫폼의 나이 및 동의 확인 부재에 대해 우려를 제기하며, 아동 성적 학대와 비동의 콘텐츠의 온라인 확산을 막기 위한 법적 규제 강화를 촉구했다고 13일(현지시간) 보도했다.
CDI는 EFC가 지난 10월 31일 캐나다 의회의 법무 및 인권 상임위원회에 제출한 의견서를 통해 ‘Bill C-270(형법 개정안: 음란물 관련);에 대한 지지 의사를 밝혔다고 보도했다. 해당 법안은 보수당 소속 아널드 비어센 의원이 발의한 것으로, 그는 인신매매 피해자 및 아동 권리 보호 활동으로 알려져 있다.
EFC는 성명에서 "음란물 플랫폼이 아동 성적 학대 자료와 비동의 이미지를 사이트에 게시하지 못하도록 보장해야 한다"며 "많은 플랫폼이 자발적으로 이를 시행하지 않는 현실에서 법적 요구와 책임 부과가 필수적"이라고 밝혔다.
EFC는 온라인에 게시된 성적 콘텐츠가 피해자들에게 "파괴적이며 평생 지속되는 결과"를 초래한다고 경고했다. 특히 아동과 청소년이 겪는 피해는 "심각하고 광범위하다"고 강조하며, 피해 사례를 구체적으로 언급했다.
피해 사례: "삶을 파괴하는 온라인 이미지"
CDI는 2021년 캐나다 의회 윤리 위원회가 ’Pornhub‘괴 같은 플랫폼에서 발생한 피해를 조사했을 당시, 피해자들은 자신의 이미지가 동의 없이 게시된 경험을 증언했다고 밝혔다. 일부 피해자는 촬영 당시 나이가 13세에 불과했다.
EFC는 보고서에서 7학년(13~14세) 학생이 찍힌 영상이 음란물 사이트에 업로드되어 수백만 회 조회된 사례를 인용하며 "이 피해자는 학교를 중퇴하고 노숙자가 되었으며, 불안과 자살 충동에 시달렸다"고 설명했다.
EFC는 보고서에서 “또 다른 사례에서는 피해자의 파트너가 동의 없이 촬영한 사진과 영상을 게시해 정서적 외상과 자살 충동, 건강 문제, 직업적 손실을 초래했다”고 밝혔다.
이어 음란물 플랫폼에서 성폭행이 하나의 장르로 소비되는 문제도 언급했다. 한 피해자는 자신이 의식을 잃은 상태에서 촬영된 영상이 "수면제"라는 태그와 함께 ’Pornhub‘에 게시되었으며, 수천 명이 이를 검색해 시청했다고 증언했다.
AI 활용한 착취 및 콘텐츠 삭제 문제
EFC는 인공지능(AI)을 활용한 이미지 조작이 성인 및 아동의 성적 착취를 악화시키고 있다고 우려했다. 한 피해자는 자신의 친밀한 이미지 700장이 80개 이상의 웹사이트에 퍼져 직업, 사회적 관계, 정신 건강에 심각한 영향을 받았다고 말했다.
플랫폼이 피해자의 삭제 요청에 응답하지 않거나 삭제 속도가 느려, 한 번 게시된 이미지를 완전히 제거하는 것은 거의 불가능하다고 EFC는 지적했다.
EFC는 "책임은 피해자가 아닌 기업에 있다. 음란물 플랫폼은 콘텐츠가 처음부터 업로드되지 못하도록 조치를 취해야 하며, 이를 소홀히 한 기업은 반드시 책임을 져야 한다"고 밝혔다.
법안 통과 촉구
CDI는 EFC가 ’Bill C-270‘이 플랫폼에 명확한 책임을 부과하는 법안이라며 상임위원회의 지지를 요청했다고 밝혔다.
EFC는 "Bill C-270이 불법 콘텐츠가 처음부터 업로드되지 못하도록 하는 중요한 역할을 할 것이다. 위원회가 이 법안을 지지해 줄 것을 강력히 촉구한다"고 밝혔다.