Провідні розробники штучного інтелекту зобов'язалися посилити заходи проти сексуального насильства над дітьми онлайн

24-04-2024 11:00
news-image
Розробники обіцяють не включати у набори даних сексуального характеру для навчання ШІ-моделей матеріали, пов'язані із дітьми.

Технологічні корпорація, зокрема OpenAI, Microsoft, Google, Meta та інші, спільно зобов’язалися запобігати використанню їхніх інструментів штучного інтелекту для експлуатації дітей і створення матеріалів про сексуальне насильство над дітьми (CSAM — child sexual abuse material). Ініціативу очолилили правозахисна група Thorn та громадська організація All Tech Is Human, зосереджена на відстоюванні відповідального впровадження технологій. Про це повідомило видання Engadget.

Це зобов’язання «створює новаторський прецедент для галузі та є значним стрибком у зусиллях із захисту дітей від сексуального насильства як функції з розгортанням генеративного штучного інтелекту», йдеться у заяві Thorn. Мета ініціативи – запобігти створенню матеріалів відвертого сексуального характеру за участю дітей і видалити їх із соціальних мереж і пошукових систем. Тільки в 2023 році в США було зареєстровано понад 104 мільйони файлів з матеріалами, що мають ознаки сексуального насильстві над дітьми, повідомили в організації. За відсутності колективних дій генеративний штучний інтелект може погіршити цю проблему та перевантажити правоохоронні органи, які вже намагаються ідентифікувати справжніх жертв.

Thorn і All Tech Is Human опублікували статтю під назвою «Безпека за проєктом для генератинвого штучного інтелекту: Запобігання сексуальному насильству над дітьми», в якій описано стратегії та рекомендації для компаній, які створюють інструменти штучного інтелекту, є власниками пошукових систем, платформ соціальних мереж, надають хостинг, щодо заходів, які слід вжити, щоб запобігти використанню генеративного ШІ для шкоди дітям.

Зокрема, розробників штучного інтелекту просять уникати для його навчання наборів даних, які містять лише випадки сексуального насильства, або контент сексуального характеру для дорослих через схильність генеративного штучного інтелекту поєднувати ці дві концепції.

Компанії, що представляють платформи соціальних медіа та пошукові системи, просять видалити посилання на сайти та програми, які дозволяють людям «зображувати оголених» дітей.

«Цей проєкт мав на меті чітко прояснити, що не потрібно опускати руки. Ми хочемо мати можливість змінити напрямок розвитку цієї технології, щоб потенційна шкода цієї технології була знищена», — заявила віце-президентка Thorn із науки про дані Ребекка Портнофф виданню Wall Street Journal.

За її інформацією, окремі компанії вже погодилися відокремити зображення, відео та аудіо, які стосуються дітей, від наборів даних, що містять вміст для дорослих, щоб запобігти їх поєднанню під час навчання моделей ШІ. Інші також додають водяні знаки для ідентифікації створеного штучним інтелектом контенту, проте цей метод не є достатньо надійним, адже водяні знаки та метадані можна видалити.

Нагадаємо, всеукраїнська громадська організація «Магнолія» у співпраці з Міністерством цифрової трансформації та Департаментом кіберполіції запустили онлайн-платформу StopCrime, де можна повідомити про виявлений у мережі контент, що містить ознаки насильства над дітьми.

Фото: інструменти штучного інтелекту на смартфоні / Unsplash

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
Источник: MediaSapiens