Діпфейк-порно може стати поширеною проблемою на тлі прогресу ШІ
19 Кві 2023, 14:06

Діпфейк-порно може стати поширеною проблемою на тлі прогресу ШІ

Експерти побоюються, що темний бік легкодоступних інструментів штучного інтелекту може погіршити те, що в першу чергу шкодить жінкам, недобросовісну підроблену порнографію.

Порно, створене за допомогою технології діпфейку, вперше почало поширюватися в інтернеті кілька років тому, коли користувач Reddit поділився кліпами, в яких обличчя жінок-знаменитостей були розміщені замість облич порноакторок.

Відтоді творці поширюють подібні відео та зображення, націлені на інфлюенсерів осіб, журналістів та інших людей з публічним профілем. Тисячі відео існують на безлічі веб-сайтів. А деякі з них пропонують користувачам можливість створювати власні образи, по суті, дозволяючи будь-кому перетворювати кого завгодно на об’єкт сексуальних фантазій без їхньої згоди або використовувати технологію для завдання шкоди колишнім партнерам.

Створіть ефективні PR стратегії разом з експертами Foundation Coffee Roasters, TWID, БФК Gulliver та ще понад 90 провідними брендами!

12 грудня на GET Business Festival дізнайтесь, як розробити ефективні PR-стратегії, підвищити впізнаваність бренду та залучити нових клієнтів через сучасний маркетинг і співпрацю з лідерами думок.

Забронювати участь

Проблема, за словами експертів, зростала, оскільки стало легше створювати витончені та візуально переконливі підробки. І вони кажуть, що ситуація може погіршитися з розвитком генеративних інструментів штучного інтелекту, які навчаються на мільярдах зображень з інтернету і випльовують новий контент, використовуючи наявні дані.

«Реальність така, що технологія продовжуватиме поширюватися, розвиватися й надалі і стане такою ж простою, як натискання кнопки», сказав Адам Додж, засновник EndTAB, групи, яка проводить тренінги з протидії зловживанням, що здійснюються за допомогою технологій.

«І поки це відбувається, люди, безсумнівно, будуть продовжувати зловживати цією технологією, щоб завдати шкоди іншим, в першу чергу через сексуальне насильство в Інтернеті, фальшиву порнографію і фальшиві зображення оголеної натури». додав він.

Ноель Мартін з австралійського міста Перт відчула на собі цю реальність. 28-річна жінка знайшла підроблене порно зі своїм зображенням 10 років тому, коли одного разу з цікавості скористалася Google, щоб знайти своє зображення. Ноель каже, що й досі не знає, хто створив фальшиві зображення чи відео, де вона бере участь у статевому акті, які вона знайшла пізніше. Вона підозрює, що хтось, ймовірно, взяв фотографію, розміщену на її сторінці в соціальних мережах або деінде, і перетворив її на порно.

Налякана, Мартін протягом кількох років зверталася до різних веб-сайтів, намагаючись видалити ці зображення. Деякі не відповідали. Інші видаляли їх, але незабаром вона знову знаходила їх.

За її словами, чим більше вона говорила, тим більше загострювалася проблема. Деякі люди навіть говорили їй, що те, як вона одягається і публікує зображення в соціальних мережах, сприяє цькуванню, по суті, звинувачуючи її за зображення, а не їхніх авторів.

Зрештою, Мартін звернула увагу на законодавство, виступаючи за прийняття в Австралії національного закону, який би штрафував компанії на 555 000 австралійських доларів, якщо вони не виконують вимоги про видалення такого контенту, що надходять від регуляторів онлайн-безпеки.

Мартін, яка зараз працює адвокатом і дослідницею права в Університеті Західної Австралії, вважає, що цю проблему потрібно вирішувати на глобальному рівні.

Тим часом деякі моделі штучного інтелекту заявляють, що вони вже обмежують доступ до відвертих зображень.

OpenAI заявляє, що видалила відвертий контент з даних, які використовуються для навчання інструменту генерації зображень DALL-E, що обмежує можливості користувачів створювати такі типи зображень. Компанія також фільтрує запити і заявляє, що блокує користувачів від створення ШІ-зображень знаменитостей і відомих політиків.

Midjourney, ще одна модель, блокує використання певних ключових слів і заохочує користувачів повідомляти модераторам про проблемні зображення.

Тим часом стартап Stability AI випустив оновлення в листопаді, яке усуває можливість створювати відверті зображення за допомогою генератора зображень Stable Diffusion. Ці зміни відбулися після повідомлень про те, що деякі користувачі створювали оголені фотографії зі знаменитостями за допомогою цієї технології.

Деякі компанії соціальних мереж також посилили свої правила, щоб краще захистити свої платформи від шкідливих матеріалів.

Минулого місяця TikTok заявив, що всі діпфейки або маніпуляції з контентом, який показує реалістичні сцени, повинні бути позначені, щоб вказати, що вони є фейковими або певним чином зміненими, і що діпфейки приватних осіб і молодих людей більше не допускатимуться. Раніше компанія заборонила відверто сексуальний контент і діпфейки, які вводять глядачів в оману щодо реальних подій і завдають шкоди.

Ігрова платформа Twitch також нещодавно оновила свою політику щодо відвертих фейкових зображень після того, як наприкінці січня під час прямого ефіру у популярного стрімера на ім’я Атріок було виявлено, що в його браузері відкрито фейковий порносайт. На сайті були представлені фальшиві зображення інших стримерів Twitch.

Нещодавно Apple і Google заявили, що видалили зі своїх магазинів додатків додаток, який демонстрував сексуально підроблені відео з акторками з метою просування продукту на ринку.

Дослідження фейкового порно не є поширеним явищем, але один звіт, опублікований у 2019 році компанією DeepTrace Labs, яка займається штучним інтелектом, показав, що воно майже повністю спрямоване проти жінок, а найчастіше жертвами стають західні акторки, за якими йдуть південнокорейські к-поп співачки.

У лютому Meta, а також сайти для дорослих, такі як OnlyFans і Pornhub, почали брати участь в онлайн-інструменті під назвою Take It Down, який дозволяє підліткам повідомляти про відверті зображення та відео з Інтернету. Сайт для повідомлень працює як зі звичайними зображеннями, так і з контентом, згенерованим штучним інтелектом, що викликає дедалі більше занепокоєння в групах із захисту дітей.

Розкажіть друзям про новину