Слухи преследовали ее в автономном режиме. В Интернете насилие распространялось бесконтрольно: комментарии, насмешки, публикации, скриншоты. Она никогда не соглашалась ни на что из этого. Это никого не остановило.
Через несколько минут контент увидели тысячи людей. Через несколько часов — миллионы.
Кошмар только начинался.
Прошло несколько дней, прежде чем платформы отреагировали. К тому времени снимки были просмотрены, сохранены и воспроизведены. У нее возник вопрос: кому мне сообщить об этом? Поверит ли мне кто-нибудь? Столкнутся ли люди, которые это сделали, с последствиями? Или вина ляжет на меня?
Это реальность для тысяч женщин и девочек каждый божий день. Подделки с помощью искусственного интеллекта разрушают реальные жизни, а правосудие остается недосягаемым для большинства выживших.
Ее история может стать вашей.
Фейковое насилие — это острие гораздо более широкой модели цифрового насилия, направленного против женщин и девочек. Оно носит гендерный характер и усиливается. Прямо сейчас системы, предназначенные для защиты людей, выходят из строя, в то время как средства причинения вреда с каждым днем становятся дешевле, быстрее и проще в использовании.
Вот что вам нужно знать:
Что такое злоупотребление глубокими подделками и насколько оно распространено?
Глубокие подделки — это изображения, аудио или видео, обработанные искусственным интеллектом (ИИ), которые создают впечатление, что кто-то сказал или сделал что-то, чего он никогда не делал.
Сама по себе технология не нова, но ее использование в качестве оружия против женщин и девочек — это новое явление, и оно быстро набирает обороты.
- поддельная порнография составляет 98% всех поддельных видео в Интернете, и в 99% из них изображены женщины, согласно отчету за 2023 год.
- по оценкам, в 2023 году количество видео-подделок было на 550 % больше, чем в 2019 году
- инструменты для их создания широко доступны, обычно бесплатны и требуют очень небольшого технического опыта
<после публикации контент, созданный с помощью искусственного интеллекта, может бесконечно тиражироваться, сохраняться на личных устройствах и распространяться на разных платформах, что делает практически невозможным его полное удаление.
Почему выжившие не сообщают и что происходит, когда они это делают.
Занижение отчетности является одним из самых серьезных препятствий на пути к подотчетности. Для выживших, которые все же заявляют о себе, система правосудия часто становится еще одним источником травм.
- Выживших неоднократно просят просмотреть и описать оскорбительный контент в полиции, адвокатах и модераторах платформы, при этом часто задают вопросы типа: “Вы уверены, что это неправда?” или “делились ли вы интимными снимками раньше?”
- Если дело доходит до суда, то их одежда, отношения и поведение в прошлом рассматриваются под микроскопом, а не сам преступник.
- По данным организации «ООН-женщины», вред, причиненный преступнику, не остается в Сети. опрос, в ходе которого выяснилось, что 41% женщин, участвующих в общественной жизни и подвергшихся цифровому насилию, также сообщили, что сталкивались с атаками в интернете или связанными с этим домогательствами
Почему создатели фейков редко предстают перед судом
Несмотря на масштаб ущерба, судебные преследования редки, платформы обычно бездействуют, а пострадавшие часто получают повторную травму, когда пытаются обратиться за помощью. И вот почему:
закон не догнал и nbsp;как менее чем в половине стран вы есть законы, которые призваны решать онлайн злоупотреблений и еще меньше имеют законодательство, а ИИ автоматически deepfake контент
- большинство “порноместь” или на основе изображений нарушении законов были написаны до deepfakes существовал, не оставляя лазеек
- во многих странах, deepfake порно или AI автоматически обнаженные изображения попадают в правовой «серой зоны»
- выжившие уверены в том, что при злоупотреблении даже незаконными и могут ли виновные лица могут быть привлечены к ответственности
- доказательства исчезает быстро, как распространяется контент и копии размножаться, преступники прикрываются анонимностью или работать в разных юрисдикциях
- платформы медленно или не хотят делиться данными с правоохранительными органами, особенно в случаях трансграничного
- цифровой криминалистики задержек имею в виду случаи стойло, прежде чем они даже начать
- снятие нагрузки на выживших-Это нереально жестоко, как они ожидали, чтобы отследить каждую копию своего неконсенсусного изображений на различных платформах и сохранить о них, в то время как содержание продолжает расти
- платформы медленно, чтобы удалить оскорбительный контент
-
технологические компании часто имеют непрозрачные и противоречивые представления отчетности, дать автоматическое отклонение запросов демонтаж и предлагают практически нет сотрудничества с правоохранительными
Во всем мире растет число случаев онлайн-насилия в отношении женщин.
- в недавнем громком деле, Великобритании, журналистка Дейзи Диксон обнаружил ИИ автоматически, сексуализированных образов себя на Х в декабре 2025, созданные с помощью платформы собственного Грок Ай инструмент; потребовалось несколько дней для платформы, чтобы геоблок функцию, в то время как злоупотребление продолжала распространяться
- deepfake злоупотребления может служить онлайн катализатором так называемой “чести преступлений” в определенных культурных контекстах, где предполагаемая нарушение честь норм о цифровых платформ может повлечь за экстремального физического насилия в отношении женщины, или даже смерти.
- более половины deepfake жертв в Соединенных Штатах Америки подумывал о самоубийстве, и nbsp;Согласно недавнему исследованию
- Бразилия поправки в свой Уголовный кодекс в 2025 году увеличение штрафа за причинение психологического насилия в отношении женщин, использующих ИИ и другие технологии, чтобы изменить свой имидж или голос
- кнопки Европейский Союз искусственный интеллект (ИИ) закон накладывает обязательства по транспарентности вокруг deepfakes
- кнопки Соединенное Королевствос безопасностью в Интернете, закон запрещает обмена цифровой обработке откровенных изображений, но ничего не говорится о создании deepfakes и не могут применяться, если целью причинить страдания, не могут быть подтверждены
- кнопки США принять его поступок явно покрывает ИИ автоматически интимные снимки и требуется платформа удаление в течение 48 часов
ул><п>применение отстает и nbsp;это потому, что даже если законы существуют, исследователи должны цифровой криминалистической экспертизы, трансграничная координация и платформы для сотрудничества, чтобы построить случай, в то время как большинство систем правосудия не располагает достаточными ресурсами для решения любой из этих
ул><п>техника платформ не выживших как они уже давно скрываются за “промежуточные” состояния, чтобы избежать ответственности за контент, созданный пользователями.
Что должно произойти сейчас
Несмотря на то, что ряд стран и регионов принимают меры (см. текстовое поле ниже), прекращение злоупотребления глубокими подделками требует срочных скоординированных действий со стороны правительств, учреждений и технологические платформы.
Вот пять вещей, которые должны произойти:
1. Законы, которые на самом деле охватывают злоупотребление глубокими подделками
Правительства должны принять законодательство с четкими определениями злоупотреблений, вызванных искусственным интеллектом, и уделить особое внимание согласию, строгой ответственности виновных, обязательствам по ускоренному удалению для платформ и трансграничным протоколам обеспечения соблюдения.
2. Системы правосудия, способные проводить расследования и привлекать к ответственности виновных
Правоохранительным органам необходимы подготовка кадров, ресурсы и специальные возможности для сбора и сохранения цифровых доказательств, а также для решения проблем, связанных с цифровой судебной экспертизой, при этом механизмы международного сотрудничества становятся быстрыми, функциональными и отвечающими поставленным целям.
3. Платформы, привлекаемые к ответственности
Технологические компании должны быть юридически обязаны активно отслеживать и удалять оскорбительный контент в установленные сроки, сотрудничать с правоохранительными органами и сталкиваться с реальными финансовыми последствиями в случае бездействия.
4. Пострадавшим должна быть предоставлена реальная поддержка
Обученные, знающие о травмах сотрудники правоохранительных органов и юристы, а также бесплатная юридическая помощь.
5. Обучение, предотвращающее жестокое обращение
Цифровая грамотность, включая просвещение по вопросам согласия, безопасности в Интернете и того, что делать, когда сталкиваешься с жестоким обращением, должна начинаться с раннего возраста и охватывать всех, поскольку профилактика так же важна, как и судебное преследование.
не проблема сети, но глобальный кризис
в ООН предупреждает женщин это не проблема нишу интернете: “это глобальный кризис.”
ул><п>тем временем, несколько стран уже начинают действовать:
ул>