Эксперты опасаются, что темная сторона легкодоступных инструментов искусственного интеллекта может ухудшить то, что в первую очередь вредит женщинам – недобросовестная поддельная порнография.
Порно, созданное с помощью технологии дипфейка, впервые начало распространяться в интернете несколько лет назад, когда пользователь Reddit поделился клипами, в которых лица женщин-знаменитостей были размещены вместо порноактрис.
С тех пор создатели распространяют подобные видео и изображения, ориентированные на инфлюэнсеров лиц, журналистов и других людей с публичным профилем. Тысячи видео существуют на множестве веб-сайтов. А некоторые из них предлагают пользователям возможность создавать собственные образы, по сути, позволяя кому-либо превращать кого угодно в объект сексуальных фантазий без их согласия или использовать технологию для ущерба бывшим партнерам.
Проблема, по словам экспертов, росла, поскольку стало легче создавать утонченные и визуально убедительные подделки. И они говорят, что ситуация может ухудшиться с развитием генеративных инструментов искусственного интеллекта, которые учатся на миллиардах изображений из Интернета и выплевывают новый контент, используя имеющиеся данные.
«Реальность такова, что технология будет продолжать распространяться, развиваться и дальше и станет такой же простой, как нажатие кнопки», – сказал Адам Додж, основатель EndTAB, группы, проводящей тренинги по противодействию злоупотреблениям, осуществляемым с помощью технологий.
«И пока это происходит, люди, несомненно, будут продолжать злоупотреблять этой технологией, чтобы нанести вред другим, в первую очередь из-за сексуального насилия в Интернете, фальшивой порнографии и фальшивых изображений обнаженной натуры», – добавил он.
Ноэль Мартин из австралийского города Перт ощутила на себе эту реальность. 28-летняя женщина нашла поддельное порно со своим изображением 10 лет назад, когда однажды из любопытства воспользовалась Google, чтобы найти свое изображение. Ноэль говорит, что до сих пор не знает, кто создал фальшивые изображения или видео, где она участвует в половом акте, которые она нашла позже. Она подозревает, что кто-то, вероятно, взял фотографию, размещенную на ее странице в социальных сетях или где-либо, и превратил ее в порно.
Испуганная Мартин в течение нескольких лет обращалась к разным веб-сайтам, пытаясь удалить эти изображения. Некоторые не отвечали. Другие удаляли их, но вскоре она снова находила их.
По ее словам, чем больше она говорила, тем больше усугублялась проблема. Некоторые люди даже говорили ей, что то, как она одевается и публикует изображения в социальных сетях, способствует травле, по сути, обвиняя ее за изображение, а не их авторов.
В конце концов, Мартин обратила внимание на законодательство, выступая за принятие в Австралии национального закона, штрафующего компании на 555 000 австралийских долларов, если они не выполняют требования об удалении такого контента, поступающих от регуляторов онлайн-безопасности.
Мартин, работающая сейчас адвокатом и исследовательницей права в Университете Западной Австралии, считает, что эту проблему нужно решать на глобальном уровне.
Между тем, некоторые модели искусственного интеллекта заявляют, что они уже ограничивают доступ к откровенным изображениям.
OpenAI заявляет, что удалила откровенный контент из данных, используемых для обучения инструменту генерации изображений DALL-E, что ограничивает возможности пользователей создавать такие типы изображений. Компания также отфильтровывает запросы и заявляет, что блокирует пользователей от создания ИИ-изображений знаменитостей и известных политиков.
Midjourney, еще одна модель, блокирует использование определенных ключевых слов и поощряет пользователей сообщать модераторам о проблемных изображениях.
Тем временем стартап Stability AI выпустил обновление в ноябре, устраняющее возможность создавать откровенные изображения с помощью генератора изображений Stable Diffusion. Эти изменения произошли после сообщений о том, что некоторые пользователи создавали обнаженные фотографии со знаменитостями с помощью этой технологии.
Некоторые компании социальных сетей также ужесточили свои правила, чтобы лучше защитить свои платформы от вредоносных материалов.
В прошлом месяце TikTok заявил, что все дипфейки или манипуляции с контентом, показывающим реалистичные сцены, должны быть обозначены, чтобы указать, что они фейковы или определенным образом изменены, и что дипфейки частных лиц и молодых людей больше не допускаются. Ранее компания запретила откровенно сексуальный контент и дипфейки, которые вводят зрителей в заблуждение по поводу реальных событий и наносят вред.
Игровая платформа Twitch также недавно обновила свою политику по откровенным фейковым изображениям после того, как в конце января во время прямого эфира у популярного стримера по имени Атриок было обнаружено, что в его браузере открыт фейковый порносайт. На сайте были представлены фальшивые изображения других стримеров Twitch.
Недавно Apple и Google заявили, что удалили из своих магазинов приложение, которое демонстрировало сексуально поддельные видео с актрисами с целью продвижения продукта на рынке.
Исследование фейкового порно не является распространенным явлением, но один отчет, опубликованный в 2019 году компанией DeepTrace Labs, занимающейся искусственным интеллектом, показал, что оно почти полностью направлено против женщин, а чаще жертвами становятся западные актрисы, за которыми следуют южнокорейские к-поп певицы.
В феврале Meta, а также сайты для взрослых, такие как OnlyFans и Pornhub, начали участвовать в онлайн-инструменте под названием Take It Down, которое позволяет подросткам сообщать об откровенных изображениях и видео из Интернета. Сайт для сообщений работает как с обычными изображениями, так и с контентом, сгенерированным искусственным интеллектом, что вызывает все большее беспокойство в группах по защите детей.