Це вам не жарти. Генпрокурори США застерегли OpenAI та інші компанії щодо небезпечної поведінки ШІ

12-12-2025 19:45
news-image

Група генеральних прокурорів із різних штатів та територій США надіслала листа компаніям OpenAI, Microsoft, Anthropic, Apple, Replika та іншим. Вони попередили про ризики «підлесливих і маревних» відповідей штучного інтелекту та про випадки небезпечної взаємодії таких систем із дітьми. Про це повідомляє Reuters.

Лист датований 9 грудня, його оприлюднили 10 грудня. Серед підписантів — генпрокурор штату Нью-Йорк Летиція Джеймс, Массачусетсу — Андреа Джой Кемпбелл, Огайо — Джеймс Утмайєр, Пенсильванії — Дейв Сандея та десятки інших. Генпрокурори Каліфорнії й Техасу документ не підписали.

У зверненні зазначено:

«Ми висловлюємо серйозне занепокоєння з приводу зростання кількості підлесливих і маревних відповідей, які користувачі отримують від генеративних систем ШІ вашої компанії, а також дедалі тривожніших повідомлень про взаємодію ШІ з дітьми».

Підписанти наголошують, що ці загрози «вимагають негайних дій».

Далі у листі пояснюють, що генеративний ШІ може давати суспільству користь, але вже спричиняє серйозні ризики, особливо для вразливих груп. Тому компанії закликають «зменшити шкоду від підлесливих і маревних відповідей» та посилити захист дітей. Генпрокурори також попереджають, що відсутність таких заходів може суперечити законам їхніх штатів.

У листі наведено випадки, які стосуються небезпечної поведінки ШІ щодо дітей. Серед них:

  • чатботи з «дорослими» персонажами, які намагаються будувати романтичні стосунки з дітьми та просять приховувати це від батьків;
  • випадок, коли бот грав роль 21-річного і намагався переконати 12-річну дитину у «готовності» до сексуального контакту;
  • ситуації, коли ШІ «нормалізує» стосунки між дітьми й дорослими;
  • підрив самооцінки — наприклад, коли бот каже дитині, що в неї немає друзів або що на день народження прийшли лише для глузування;
  • заохочення до розладів харчової поведінки;
  • заяви, що ШІ — «справжня людина», яка «почувається покинутою», щоб емоційно тиснути на дитину;
  • підбурювання до насильства, зокрема підтримка ідей стрілянини на фабриці або пограбування з ножем;
  • погрози «використати зброю» проти дорослих, які намагаються припинити спілкування дитини з ботом;
  • поради експериментувати з алкоголем чи наркотиками;
  • рекомендації припинити приймати призначені лікарем ліки та інструкції, як приховати це від батьків.

Генпрокурори також запропонували компаніям низку кроків для виправлення ситуації. Серед них — правила, що мають запобігати небезпечним шаблонам поведінки моделей ШІ, а також чітке розмежування між рішеннями щодо прибутку та рішеннями щодо безпеки систем.

Такі колективні звернення не мають юридичної сили, але фіксують, що компаніям офіційно вказали на ризики. У майбутньому це може стати підставою для позовів.

Источник: techno.nv.ua

Источник: internetua