Когда правосудие терпит неудачу: почему женщины не могут получить защиту от искусственного интеллекта

По данным организации «ООН-женщины», жестокое обращение с ИИ-фейками — это не узкая проблема Интернета, а глобальный кризис. Когда правосудие терпит неудачу: почему женщины не могут получить защиту от ИИ-фейкового закона о борьбе с ИИ-фейками и предупреждении преступности. Пока она спала, распространились ее сфабрикованные изображения, сексуализированные и вирусные.

Слухи преследовали ее в автономном режиме. В Интернете насилие распространялось бесконтрольно: комментарии, насмешки, публикации, скриншоты. Она никогда не соглашалась ни на что из этого. Это никого не остановило.

Через несколько минут контент увидели тысячи людей. Через несколько часов — миллионы.

Кошмар только начинался.

Прошло несколько дней, прежде чем платформы отреагировали. К тому времени снимки были просмотрены, сохранены и воспроизведены. У нее возник вопрос: кому мне сообщить об этом? Поверит ли мне кто-нибудь? Столкнутся ли люди, которые это сделали, с последствиями? Или вина ляжет на меня?

Это реальность для тысяч женщин и девочек каждый божий день. Подделки с помощью искусственного интеллекта разрушают реальные жизни, а правосудие остается недосягаемым для большинства выживших.

Ее история может стать вашей.

Фейковое насилие — это острие гораздо более широкой модели цифрового насилия, направленного против женщин и девочек. Оно носит гендерный характер и усиливается. Прямо сейчас системы, предназначенные для защиты людей, выходят из строя, в то время как средства причинения вреда с каждым днем становятся дешевле, быстрее и проще в использовании.

Вот что вам нужно знать:

Что такое злоупотребление глубокими подделками и насколько оно распространено?

Глубокие подделки — это изображения, аудио или видео, обработанные искусственным интеллектом (ИИ), которые создают впечатление, что кто-то сказал или сделал что-то, чего он никогда не делал.

Сама по себе технология не нова, но ее использование в качестве оружия против женщин и девочек — это новое явление, и оно быстро набирает обороты.

  • поддельная порнография составляет 98% всех поддельных видео в Интернете, и в 99% из них изображены женщины, согласно отчету за 2023 год.
  • по оценкам, в 2023 году количество видео-подделок было на 550 % больше, чем в 2019 году
  • инструменты для их создания широко доступны, обычно бесплатны и требуют очень небольшого технического опыта
  • <после публикации контент, созданный с помощью искусственного интеллекта, может бесконечно тиражироваться, сохраняться на личных устройствах и распространяться на разных платформах, что делает практически невозможным его полное удаление.

Почему выжившие не сообщают и что происходит, когда они это делают.

Занижение отчетности является одним из самых серьезных препятствий на пути к подотчетности. Для выживших, которые все же заявляют о себе, система правосудия часто становится еще одним источником травм.

  • Выживших неоднократно просят просмотреть и описать оскорбительный контент в полиции, адвокатах и модераторах платформы, при этом часто задают вопросы типа: “Вы уверены, что это неправда?” или “делились ли вы интимными снимками раньше?”
  • Если дело доходит до суда, то их одежда, отношения и поведение в прошлом рассматриваются под микроскопом, а не сам преступник.
  • По данным организации «ООН-женщины», вред, причиненный преступнику, не остается в Сети. опрос, в ходе которого выяснилось, что 41% женщин, участвующих в общественной жизни и подвергшихся цифровому насилию, также сообщили, что сталкивались с атаками в интернете или связанными с этим домогательствами

Почему создатели фейков редко предстают перед судом

Несмотря на масштаб ущерба, судебные преследования редки, платформы обычно бездействуют, а пострадавшие часто получают повторную травму, когда пытаются обратиться за помощью. И вот почему:

закон не догнал и nbsp;как менее чем в половине стран вы есть законы, которые призваны решать онлайн злоупотреблений и еще меньше имеют законодательство, а ИИ автоматически deepfake контент

  • большинство “порноместь” или на основе изображений нарушении законов были написаны до deepfakes существовал, не оставляя лазеек
  • во многих странах, deepfake порно или AI автоматически обнаженные изображения попадают в правовой «серой зоны»
  • выжившие уверены в том, что при злоупотреблении даже незаконными и могут ли виновные лица могут быть привлечены к ответственности
  • ул><п>применение отстает и nbsp;это потому, что даже если законы существуют, исследователи должны цифровой криминалистической экспертизы, трансграничная координация и платформы для сотрудничества, чтобы построить случай, в то время как большинство систем правосудия не располагает достаточными ресурсами для решения любой из этих

    • доказательства исчезает быстро, как распространяется контент и копии размножаться, преступники прикрываются анонимностью или работать в разных юрисдикциях
    • платформы медленно или не хотят делиться данными с правоохранительными органами, особенно в случаях трансграничного
    • цифровой криминалистики задержек имею в виду случаи стойло, прежде чем они даже начать
    • ул><п>техника платформ не выживших как они уже давно скрываются за “промежуточные” состояния, чтобы избежать ответственности за контент, созданный пользователями.

      • снятие нагрузки на выживших-Это нереально жестоко, как они ожидали, чтобы отследить каждую копию своего неконсенсусного изображений на различных платформах и сохранить о них, в то время как содержание продолжает расти
      • платформы медленно, чтобы удалить оскорбительный контент
      • технологические компании часто имеют непрозрачные и противоречивые представления отчетности, дать автоматическое отклонение запросов демонтаж и предлагают практически нет сотрудничества с правоохранительными

        When justice fails: Why women can’t get protection from AI deepfake abuse

        Во всем мире растет число случаев онлайн-насилия в отношении женщин.

      Что должно произойти сейчас

      Несмотря на то, что ряд стран и регионов принимают меры (см. текстовое поле ниже), прекращение злоупотребления глубокими подделками требует срочных скоординированных действий со стороны правительств, учреждений и технологические платформы.

      Вот пять вещей, которые должны произойти:

      1. Законы, которые на самом деле охватывают злоупотребление глубокими подделками

      Правительства должны принять законодательство с четкими определениями злоупотреблений, вызванных искусственным интеллектом, и уделить особое внимание согласию, строгой ответственности виновных, обязательствам по ускоренному удалению для платформ и трансграничным протоколам обеспечения соблюдения.

      2. Системы правосудия, способные проводить расследования и привлекать к ответственности виновных

      Правоохранительным органам необходимы подготовка кадров, ресурсы и специальные возможности для сбора и сохранения цифровых доказательств, а также для решения проблем, связанных с цифровой судебной экспертизой, при этом механизмы международного сотрудничества становятся быстрыми, функциональными и отвечающими поставленным целям.

      3. Платформы, привлекаемые к ответственности

      Технологические компании должны быть юридически обязаны активно отслеживать и удалять оскорбительный контент в установленные сроки, сотрудничать с правоохранительными органами и сталкиваться с реальными финансовыми последствиями в случае бездействия.

      4. Пострадавшим должна быть предоставлена реальная поддержка

      Обученные, знающие о травмах сотрудники правоохранительных органов и юристы, а также бесплатная юридическая помощь.

      5. Обучение, предотвращающее жестокое обращение

      Цифровая грамотность, включая просвещение по вопросам согласия, безопасности в Интернете и того, что делать, когда сталкиваешься с жестоким обращением, должна начинаться с раннего возраста и охватывать всех, поскольку профилактика так же важна, как и судебное преследование.

      не проблема сети, но глобальный кризис

      в ООН предупреждает женщин это не проблема нишу интернете: “это глобальный кризис.”

      • в недавнем громком деле, Великобритании, журналистка Дейзи Диксон обнаружил ИИ автоматически, сексуализированных образов себя на Х в декабре 2025, созданные с помощью платформы собственного Грок Ай инструмент; потребовалось несколько дней для платформы, чтобы геоблок функцию, в то время как злоупотребление продолжала распространяться
      • deepfake злоупотребления может служить онлайн катализатором так называемой “чести преступлений” в определенных культурных контекстах, где предполагаемая нарушение честь норм о цифровых платформ может повлечь за экстремального физического насилия в отношении женщины, или даже смерти.
      • более половины deepfake жертв в Соединенных Штатах Америки подумывал о самоубийстве, и nbsp;Согласно недавнему исследованию
      • ул><п>тем временем, несколько стран уже начинают действовать:

        • Бразилия поправки в свой Уголовный кодекс в 2025 году увеличение штрафа за причинение психологического насилия в отношении женщин, использующих ИИ и другие технологии, чтобы изменить свой имидж или голос
        • кнопки Европейский Союз искусственный интеллект (ИИ) закон накладывает обязательства по транспарентности вокруг deepfakes
        • кнопки Соединенное Королевствос безопасностью в Интернете, закон запрещает обмена цифровой обработке откровенных изображений, но ничего не говорится о создании deepfakes и не могут применяться, если целью причинить страдания, не могут быть подтверждены
        • кнопки США принять его поступок явно покрывает ИИ автоматически интимные снимки и требуется платформа удаление в течение 48 часов
        • ул>

Источник

Средний рейтинг
0 из 5 звезд. 0 голосов.