Безопасность в ChatGPT. OpenAI вводит оповещение для близких в случае риска самоповреждения

08-05-2026 23:00
news-image

OpenAI запускает функцию Trusted Contact — опциональный инструмент безопасности для совершеннолетних пользователей ChatGPT, который позволяет назначить близкого человека для получения оповещений в случае возникновения риска самоповреждения.

Этот шаг стал продолжением инициатив по родительскому контролю, но теперь он адаптирован для взрослой аудитории, где социальная изоляция часто становится критическим фактором во время ментальных кризисов.

Как говорится в сообщении, механика работы системы построена на ювелирном балансе между приватностью и безопасностью. Пользователь добавляет одно доверенное лицо в настройках, а то должно в течение недели подтвердить свое согласие. Если автоматизированные алгоритмы ChatGPT зафиксируют в диалоге признаки серьезного намерения нанести себе вред, система не просто выдаст стандартную ссылку на горячую линию, а передаст ситуацию на рассмотрение специально обученной команде модераторов.

Живая проверка специалистами является ключевым этапом. OpenAI ставит цель верифицировать контекст менее чем за час. Если реальная угроза подтверждена, доверенное лицо получает короткое уведомление через email, SMS или приложение с призывом выйти на связь с пользователем. Важно, что никакие фрагменты переписки или конфиденциальные детали чата не передаются — доверенное лицо получает только факт наличия проблемы и ссылку на профессиональные рекомендации по ведению деликатных разговоров.

Научная основа проекта базируется на том, что живой социальный контакт является одним из самых мощных предохранителей в превенции суицидов. Артур Эванс, генеральный директор Американской психологической ассоциации (APA), отмечает: «Помощь людям в предварительной идентификации доверенного лица, при условии сохранения их автономии, упрощает обращение за реальной поддержкой именно тогда, когда это больше всего нужно». К разработке привлекли Global Physicians Network — сеть из более 260 лицензированных врачей из 60 стран мира, что помогло сделать реакции ИИ менее механическими и более эмпатичными.

Кроме оповещений, ChatGPT продолжает совершенствовать систему прямых ограничений. Нейросеть обучена жестко отказывать в предоставлении инструкций по самоповреждению, предлагая взамен локализованные ресурсы помощи, например номер 988 в США. Профессор Мунмун Де Чоудхури из Georgia Tech подчеркивает, что такой подход — это «шаг вперед в расширении прав и возможностей человека в моменты уязвимости».

Источник: НВ