Заявление ЮНИСЕФ: Дипфейки все чаще применяются для создания контента сексуального характера с участием детей

По данным исследования, проведенного ЮНИСЕФ совместно с международной организацией ECPAT и Интерполом, более 1,2 миллиона детей в 11 странах сообщили, что в прошлом году их изображения были подделаны для создания откровенного контента. В некоторых регионах пострадал каждый 25-й ребенок, что означает, что в классе из 25 учеников как минимум один стал жертвой.
Дети, участвующие в исследовании, осознают риски, связанные с использованием ИИ для создания фальшивых сексуализированных изображений. В некоторых странах до двух третей респондентов выразили беспокойство о том, что технологии могут быть использованы для создания поддельного контента сексуального характера. Уровень тревожности варьируется в зависимости от страны, что подчеркивает необходимость в повышении осведомленности и усилении мер защиты.
Важно отметить, что сексуализированные изображения детей, созданные с помощью ИИ, относятся к материалам, связанным с сексуальным насилием (CSAM). Злоупотребление дипфейками может иметь серьезные последствия и причинять реальный вред.
Когда используется изображение ребенка, он становится непосредственной жертвой. Даже если ребенок не может быть идентифицирован, такие материалы способствуют нормализации сексуальной эксплуатации детей и создают проблемы для правоохранительных органов в области защиты детей.
ЮНИСЕФ поддерживает инициативы разработчиков ИИ, которые внедряют системы обеспечения безопасности и меры по предотвращению неправомерного использования своих технологий. Тем не менее, ситуация остается неоднородной, и многие модели ИИ создаются без должных защитных механизмов. Риски увеличиваются, когда генеративные ИИ интегрированы в социальные сети, что способствует быстрому распространению обработанных изображений.
ЮНИСЕФ подчеркивает необходимость принятия следующих мер для борьбы с растущей угрозой, связанной с контентом сексуального характера, созданным с помощью ИИ:
- Все правительства должны расширить определения материалов о сексуальном насилии над детьми (CSAM), включая контент, созданный ИИ, и сделать его создание, распространение и хранение уголовно наказуемыми.
- Разработчики ИИ должны внедрять меры безопасности на этапе проектирования и разрабатывать эффективные механизмы защиты, чтобы предотвратить неправомерное использование их технологий.
- Цифровые компании обязаны принимать меры по предотвращению распространения материалов с изображением сексуального насилия над детьми, созданных с помощью ИИ, а не лишь реагировать на факты злоупотреблений; необходимы инвестиции в технологии обнаружения, чтобы материалы могли быть удалены сразу, а не спустя несколько дней после обращения жертвы.
Вред от злоупотребления дипфейками является серьезной проблемой, требующей незамедлительных действий. Дети не могут ждать, пока будут приняты необходимые законы.
Обсудим?
Смотрите также:
