AI Nudify Apps 스토어 내 방치된 100여 개 실체

최근 인공지능 기술의 오남용으로 인한 AI Nudify Apps 문제가 심각한 사회적 이슈로 부상했습니다. 시민단체 테크 투명성 프로젝트(TTP)가 발표한 최신 보고서에 따르면 애플과 구글의 공식 앱스토어에서 사용자의 사진을 무단으로 변환하는 앱들이 수십 개나 활발히 운영되고 있는 것으로 확인되었습니다. 플랫폼 기업들의 보안 정책에도 불구하고 실제로는 수백만 명의 사용자가 이러한 도구에 노출되어 있는 실정입니다.

A smartphone display showing various app icons with a glowing digital interface, representing privacy and security concepts, set against a dark background with blue digital accents, 4:3

AI Nudify Apps 구글과 애플 스토어에서 발견된 개수는?

TTP의 1월 조사 결과에 따르면 구글 플레이 스토어에서 55개, 애플 앱스토어에서 47개의 앱이 확인되었습니다. 이들은 주로 ‘nudify’나 ‘undress’ 같은 검색어를 통해 누구나 쉽게 접근할 수 있는 상태였습니다. 조사 대상이 된 앱들은 실제 인물의 사진을 AI로 처리하여 옷을 벗긴 듯한 이미지를 생성하거나 얼굴을 합성하는 기능을 제공합니다.

TTP 보고서가 밝힌 AI Nudify Apps 작동 방식

사용자가 평범한 옷을 입은 사람의 사진을 업로드하면 인공지능 모델이 이를 분석하여 신체 부위를 렌더링하는 방식입니다.

  • 이미지 렌더링 방식: AI가 직접 나체 이미지를 그려내는 형태
  • 페이스 스왑 방식: 기존의 나체 이미지에 대상의 얼굴만 합성하는 형태
    단순히 의상을 변경하는 도구가 아니라 비동의 성적 이미지 제작을 위해 설계된 것이 명백하다는 분석이 지배적입니다.

A magnifying glass inspecting a smartphone screen showing data patterns, representing digital investigation and analysis, professional studio lighting, 4:3

앱스토어 가이드라인 위반에도 방치되는 이유는 무엇인가요?

애플은 TTP와 CNBC의 취재가 시작된 후 지목된 앱 중 28개를 삭제했다고 밝혔습니다. 하지만 개발자들이 가이드라인을 수정하여 다시 제출하면 다시 스토어에 등록되는 사례도 발생했습니다. 구글 역시 정책 위반 앱을 중단시키고 조사를 진행 중이라고 답했지만 구체적인 삭제 숫자는 공개하지 않았습니다. 플랫폼 측은 사용자 안전을 우선한다고 강조하지만 수익 창출이 우선시되는 것이 아니냐는 비판이 나옵니다.

7억 회 이상 다운로드된 유해 앱의 수익 구조

보고서에 따르면 관련 앱들의 전 세계 누적 다운로드 횟수는 7억 회를 넘었으며 창출된 수익은 약 1억 1,700만 달러에 달합니다. 애플과 구글은 자사 스토어를 통해 유통되는 앱 결제액의 일정 비율을 수수료로 가져갑니다. 유해한 콘텐츠를 방치하면서 동시에 경제적 이득을 취하고 있다는 점이 논란의 핵심입니다. 일각에서는 플랫폼이 스스로의 정책을 엄격히 준수하지 않고 있다고 지적합니다.

A modern high-tech server room with glowing green and red lights, representing AI processing and large scale data storage, wide angle perspective, 4:3

중국 기반 앱 사용 시 우려되는 AI Nudify Apps 보안 문제

조사된 앱 중 14개는 중국에 기반을 둔 개발사에 의해 제작된 것으로 나타났습니다. 중국의 데이터 보존법에 따르면 현지 기업은 정부의 데이터 요청에 응해야 할 의무가 있습니다. 사용자가 생성한 딥페이크 이미지나 관련 개인정보가 외국 정부의 손에 들어갈 수 있다는 안보적 위험성도 배제할 수 없습니다. 데이터가 어디로 전송되고 어떻게 저장되는지 불투명한 경우가 많아 각별한 주의가 필요합니다.

비동의 성착취물 확산을 막기 위한 플랫폼의 대응 방법

미국 정치권에서는 애플과 구글에 서한을 보내 비동의 성적 이미지 생성을 방조하는 플랫폼의 책임을 묻고 있습니다. 현재의 법적 체계로는 피해자가 발생해도 유포 행위가 증명되지 않으면 처벌이 어려운 사각지대가 존재합니다.

  1. 플랫폼의 자체 모니터링 및 필터링 강화 요구
  2. 결제 시스템에서 유해 서비스에 대한 결제 차단
  3. 법적 규제 마련을 통한 배포 및 생성 방지
    피해를 예방하기 위해서는 플랫폼의 강력한 관리와 함께 사용자들의 적극적인 신고 의식이 요구됩니다.

A conceptual illustration of a digital shield protecting a human silhouette from pixelated falling data, representing online safety and protection, modern flat vector style, 4:3

AI 기술의 책임감 있는 발전을 위한 마무리

AI 기술이 가져온 편리함 뒤에는 이처럼 심각한 윤리적 결함과 범죄 가능성이 숨어 있습니다. AI Nudify Apps 같은 유해 도구가 공적인 앱스토어에서 완전히 사라질 수 있도록 지속적인 감시와 강력한 규제가 필요한 시점입니다. 소중한 개인 정보를 보호하고 디지털 범죄를 막기 위해 우리 모두가 기술의 어두운 면에 대해 경각심을 가져야겠습니다.

A person sitting at a desk with a laptop and smartphone, looking at the screen with a serious and concerned facial expression, natural soft indoor lighting, 4:3

출처: https://www.cnbc.com/2026/01/27/apple-google-host-dozens-of-ai-nudify-apps-like-grok-report-finds.html

이어서 보면 좋은 글

#AINudifyApps #애플 #구글 #앱스토어 #딥페이크 #보안 #TTP보고서 #개인정보보호 #인공지능윤리 #디지털성범죄

Leave a Comment

error: Content is protected !!