업계기사
유엔 주도, 글로벌 딥페이크 위협 대응 위해 표준 기구들 결집
AI 중심 협력에 빅테크·정부 싱크탱크도 동참
작성자: Joel R. McConvey
보도일자: 2025년 7월 14일
출처: Biometricupdate.com
최근 친구나 가족이 “이제 뭐가 진짜인지도 모르겠어”라고 말하는 것을 들어본 적이 있을 것이다. 생성형 AI가 인터넷에 합성 콘텐츠를 쏟아내고 있다. AI가 만든 밴드가 바이럴을 일으키고, 딥페이크는 너무 정교해져서 사기범들이 미국 국무장관 마르코 루비오(Marco Rubio) 같은 주요 공인을 사칭할 정도로 자신감을 얻고 있다.
유엔은 이 상황을 주목하고 있다. 유엔은 ‘AI 및 멀티미디어 진위 표준 협력(AI and Multimedia Authenticity Standards Collaboration)’이라는 이니셔티브를 통해 두 개의 보고서를 발간했는데, 해당 게시물에 따르면 이 협력체의 목적은 “딥페이크, 허위정보, 합성 콘텐츠 오남용이 초래하는 위험에 단호히 대응하면서, 동시에 AI가 주는 창의적·사회적 혜택을 촉진하는 것”이라고 한다.
유엔 디지털기술국(UN Agency for Digital Technologies)은 “인공지능의 부상과 함께, 우리의 창의성, 진실, 진정성에 대한 이해가 급격한 변화를 겪고 있다”며 “AI가 생성·편집한 콘텐츠가 특히 AI에 익숙한 젊은 세대의 소통과 소비에서 새로운 표준이 되고 있다. 한때 이례적이고 신기한 것으로 여겨지던 합성 미디어는 이제 우리의 문화적 구조에 자연스럽게 스며들어 소통 방식을 재편하고, 콘텐츠 제작 도구에 대한 접근을 민주화하여, 동시에 진정성과 신뢰성에 대한 오랜 전제를 흔들고 있다”고 말했다.
이 이니셔티브는 국제전기표준회의(IEC), 국제표준화기구(ISO), 국제전기통신연합(ITU)이 함께 구성한 파트너십인 세계표준협력기구(World Standards Cooperation)가 주도하고 있다. 이들은 표준 개발자, 기술 리더, 정책 입안자, 연구자, 시민 사회를 폭넓게 참여시켜 “국제 표준의 응집력 있는 생태계”를 구축하고자 하며, 이를 통해 투명성, 책임성, 윤리적 혁신이라는 포괄적이고 미래지향적인 틀로 디지털 진정성(digital integrity)을 새롭게 정의하려 한다.
여기에는 콘텐츠 진위 이니셔티브(CAI), 콘텐츠 출처 및 진위 연합(C2PA), 인터넷 엔지니어링 태스크포스(IETF)도 참여하고 있다. 그러나 참여자는 규제 실험장(샌드박스) 외부에서도 폭넓게 모인다. 어도비, 마이크로소프트, 셔터스톡이 빅테크를 대표하고 있으며, 인증 전문 기업 Data Trails, Deep Media, 인권 단체 Witness도 자리하고 있다. 연구진으로는 독일의 프라운호퍼 연구소(Frauenhofer), 스위스의 로잔 연방공과대학(EPFL), 중국 공업정보화부(MIIT) 산하 연구기관인 중국정보통신연구원(CAICT)이 포함되어 있다.
딥페이크 문제, 기술·정책 관점에서 동시에 조명
AI 및 멀티미디어 진위 표준 협력체(AI and Multimedia Authenticity Standards Collaboration)의 첫 주요 성과물은 두 개의 새로운 백서로, 하나는 기술 중심, 다른 하나는 정책 중심이다.
첫 번째 백서는 “디지털 미디어 진위와 AI가 만나는 교차점”에서 현재의 표준과 규격을 체계적으로 정리하고 있다. 기존의 적용 범위를 지도처럼 그려보고, 그 속에서 부족한 부분을 드러내기 위해 이 보고서는 콘텐츠 출처, 신뢰와 진위, 자산 식별자, 권리 선언, 워터마킹 등 다섯 가지 주요 클러스터를 제시했다.
보고서는 “궁극적으로 우리의 기술 백서는 책임 있는 혁신, 권리 보호, 신뢰할 수 있는 AI 시스템을 뒷받침할 다음 단계 표준화 노력을 알리고 영감을 주는 것을 목표로 한다”고 밝혔다.
한편 정책 백서는 “잘못된 정보와 허위 정보가 규제가 따라잡을 수 없을 만큼 빠르게 퍼지는 세상에서, 국제 표준이 어떻게 콘텐츠 진위에 대한 신뢰를 구축할 수 있는지”를 다루고 있다.
이 백서는 “예방, 탐지, 대응 전략을 위한 로드맵”을 제시할 것을 약속하며, 동시에 조작된 미디어로부터 사회를 보호하면서 표현의 자유와 혁신을 지키기 위한 섬세한 균형의 필요성을 강조한다.
구체적으로 검토된 도구와 전술에는 “무엇을, 어떻게, 어느 수준까지 규제할지”를 정의하는 데 도움을 주는 ‘규제 옵션 매트릭스’, 규제 설계, 집행 메커니즘, 위기 대응을 위한 체크리스트, 적합성 평가 같은 지원 도구가 포함됐다.
이 이니셔티브는 미디어 진위(Authenticity)에 대한 위협에 맞서기 위해서는 글로벌 협력이 필수적이라고 주장한다. “우리는 시민사회, 학계, 공영 미디어를 비롯해 온라인 콘텐츠의 신뢰성을 보장하는 데 이해관계를 가진 모든 핵심 주체들과 협력할 때만 허위정보와 잘못된 정보 같은 문제를 해결할 수 있다”며, “디지털 콘텐츠는 강력하고 창의적일 수 잇지만, 그만큼 추적 가능하고, 신뢰할 수 있으며, 윤리적으로 제작되어야 한다”고 강조했다.
딥페이크 보고서 후속편서 출처 추적 방안 평가한 오프콤
영국 정부는 딥페이크를 “온라인 시대의 최대 도전 과제”로 규정하고, 딥페이크 탐지를 시급한 우선 과제로 삼았다. 이에 발맞춰 영국 규제기관인 오프콤(Ofcom)은 2024년 7월 발표했던 보고서 『Deepfake Defenses』의 후속편을 공개했다.
기존 보고서가 딥페이크가 초래하는 해악을 ‘모욕(demean)’, ‘사기(defraud)’, ‘허위정보(disinform)’라는 세 가지 유형으로 분류하는 데 초점을 맞췄다면, 이번 새 보고서 『Deepfake Defences 2: The Attribution Toolkit』은 출처 추적(Attribution) 방안에 주목했다. 여기에는 워터마킹 도구, 출처 메타데이터 체계, AI 라벨, 맥락 주석 등이 포함되며, 이는 “콘텐츠가 누가, 어떻게, 언제 만들었는지, 그리고 경우에 따라 그 콘텐츠가 정확한지 허위인지 같은 특정 정보를 해당 콘텐츠에 귀속시키기 위해 설계된 기술들”이다.
사실상 이번 보고서는 이런 출처 추적 방안에 대한 일종의 소규모 시험평가를 진행해 각각의 강점과 약점, 실제 적용 가능성을 검토했다. 오프콤은 “이번 보고서의 인사이트를 바탕으로 규제 서비스에 대한 정책 개발과 감독 업무를 추진할 것”이라고 밝혔다.
세계경제포럼, 2025년 최대 글로벌 리스크로 허위정보 지목
세계경제포럼(WEF)은 허위정보가 초래하는 비용에 대해 다음과 같이 지적하며, “주가 폭락, 수익 손실, 소비자 불신으로 이어지는 막대한 재정적·평판적 피해 가능성”을 경고했다.
WEF는 “디지털 시대에 허위정보의 규모와 속도는 중대한 경제적 위협이 되었다”며, “오늘날 AI가 만들어낸 거짓 정보가 그 어느 때보다 빠르고 넓게 퍼지면서, 세계경제포럼은 허위정보를 2025년 최상위 글로벌 리스크 중 하나로 선정했다. 어떤 기업도 허위정보로부터 자유롭지 않다. 과거에는 선거에 영향을 미치거나 공인을 공격하는 데 주로 사용됐지만, 이제는 글로벌 기업을 겨냥한 강력한 무기가 되었다”고 말했다.
WEF 금융·통화시스템센터의 매튜 블레이크(Matthew Blake) 전무이사 겸 센터장은 “다국적 기업이든, 소규모 가족 경영 사업이든 허위 서사는 심각한 평판·재정적 피해를 야기해왔다”고 덧붙였다.
AI, 선(善)을 위한 도구인가 아니면 해악인가?
유엔은 AI 거버넌스, 역량, 표준에 대한 전 세계적 의지를 강조한 ITU의 AI for Good 글로벌 정상회의에서 자신들의 AI 및 멀티미디어 진위 표준 협력체(AI and Multimedia Authenticity Standards Collaboration)를 발표했다. 이 자리에서 ITU 사무총장 도린 보그단-마틴(Doreen Bogdan-Martin)은 “AI를 목표 자체가 아닌 선을 위한 수단으로 삼아, 전 인류 모두를 위해 활용하겠다는 약속을 다시 한 번 다졌다”고 밝혔다.
그러나 딥페이크를 둘러싼 온갖 암울한 전망 속에서 일각에서는 과연 “AI for good(선을 위한 AI)”라는 것이 실제로 존재하긴 하는지 의문을 제기하고 있다.
저자 찰리 존슨(Charley Johnson)은 자신의 뉴스레터 『Untangled』 최신호에서 “’AI for ~’라는 표현은 애초에 해결책이나 프로그램의 전제에 AI를 끼워 넣는 것”이라며, “진정한 변화를 원한다면 먼저 우리가 바라는 세상을 상상한 뒤, 거기에 AI를 과연 포함시켜야 할지, 포함시킨다면 어떻게 할지를 거꾸로 설계해야 한다”고 주장했다.