스마트폰 앱 마켓에서 'AI 얼굴 스왑' 등의 키워드로 검색하면 수많은 외국산 앱을 찾아볼 수 있다. 이 중에는 다운로드 횟수가 5000만 회를 넘는 인기 앱도 있으며, 대부분 무료로 이용할 수 있다. 이러한 앱들은 다양한 영상 템플릿을 제공하고 있어, 사용자는 자신의 얼굴 사진 한 장만으로 10초 만에 자연스러운 합성 영상을 만들 수 있다.
기자가 직접 이러한 앱을 사용해 본 결과, 제작된 영상의 품질이 매우 높아 실제로 촬영한 것과 구분하기 어려울 정도였다. 이렇게 만들어진 영상은 카카오톡이나 SNS 등을 통해 쉽게 공유할 수 있어, 개인 정보 유출이나 악용에 대한 우려가 제기되고 있다.
최근 '딥페이크' 기술을 이용한 성범죄가 확산되면서 당국의 경계가 높아지고 있다. 이러한 상황에서 비전문가들도 손쉽게 딥페이크 영상을 제작할 수 있는 서비스들이 늘어나고 있어 문제가 되고 있다. 이들 서비스는 원래 친구나 지인 간의 소통을 위한 재미있는 도구나 새로운 창작 수단으로 개발되었지만, 악의적인 목적으로 사용될 경우 디지털 성범죄나 사이버 사기 등에 악용될 수 있다는 우려가 제기되고 있다.
IT 업계에 따르면, 스마트폰 앱스토어에서 '딥페이크', 'AI 얼굴 합성', 'AI 페이스 스왑' 등의 키워드로 검색하면 수십 개의 관련 서비스 앱들을 찾을 수 있다. 이들 앱은 '얼굴 바꾸기', '성별 바꾸기', '목소리 전환' 등 다양한 기능을 제공하고 있다. AI 기술의 빠른 진화로 인해 이제는 실제 영상과 가짜 영상을 구분하기 어려울 정도로 정교해졌다는 것이 전문가들의 의견이다.
특히 일부 앱들은 회원가입이나 이용약관 동의 등의 절차 없이 바로 영상을 제작할 수 있어 문제가 되고 있다. 또한, 동의 없이 타인의 사진을 도용해 영상을 제작하는 경우에 대한 제재 안내도 없어 우려를 낳고 있다. 더 나아가 텔레그램 채널을 통해 나체 사진 합성 서비스를 제공하는 프로그램 봇도 등장해 논란이 되고 있다.
향후 AI 기술이 텍스트, 영상, 음성 데이터를 포괄적으로 처리하는 멀티모달 방식으로 진화함에 따라 문제는 더욱 심각해질 것으로 예상된다. 이미 오픈AI에서는 간단한 텍스트 입력만으로 고화질 영상을 생성하는 'Sora'를 발표해 주목을 받고 있다. 이러한 기술이 범죄에 악용될 경우, 특정 시나리오에 따른 허위 영상 창작이 가능해져 더 큰 문제를 야기할 수 있다.
전문가들은 이러한 기술의 부작용을 최소화하기 위한 제도적 장치의 필요성을 강조하고 있다. 청소년들을 대상으로 한 미디어 리터러시 교육의 중요성과 함께, 딥페이크 개발사와 소셜미디어 플랫폼 사업자들의 책임 있는 관리 방안 마련이 요구되고 있다. 또한, 개인 정보 보호를 위해 소셜네트워크에 과도한 개인 정보를 저장하지 않도록 주의해야 한다는 조언도 제시되고 있다.
결론적으로, AI 얼굴 합성 기술은 편리성과 위험성을 동시에 지닌 양면의 칼과 같다. 이 기술의 혁신을 저해하지 않으면서도 부작용을 최소화할 수 있는 균형 잡힌 접근이 필요한 시점이다. 사회적 합의를 통한 적절한 규제와 교육, 그리고 기술 개발자들의 윤리의식이 어우러질 때, 우리는 이 기술의 혜택을 안전하게 누릴 수 있을 것이다.
▶ 기사제보 및 보도자료 press@cdaily.co.kr
- Copyright ⓒ기독일보, 무단전재 및 재배포 금지