Для морального воспитания. Anthropic и OpenAI привлекли религиозных лидеров для обсуждения этики ИИ

11-05-2026 14:00
news-image

Anthropic и OpenAI провели встречи с представителями нескольких религиозных сообществ в США, чтобы обсудить этические принципы для ИИ-моделей. Компании ищут способы научить искусственный интеллект принимать «правильные» решения в сложных ситуациях.

Об этом сообщило издание Gizmodo.

В Нью-Йорке состоялся круглый стол Faith-AI Covenant, в котором приняли участие представители иудейских, индуистских, сикхских, православных и мормонских организаций. На встрече присутствовали и представители Anthropic и OpenAI.

Ранее Anthropic уже организовывала встречи с христианскими лидерами. Тогда компания заявляла, что хочет получить советы по «духовному развитию» своей модели Claude и планирует обсуждение и с представителями других религий.

В материале Associated Press отмечается, что организатором мероприятия стала швейцарская неправительственная организация Interfaith Alliance for Safer Communities. Она планирует провести подобные встречи также в Китае, Кении и Объединенных Арабских Эмиратах.

Журналисты пишут, что Anthropic пытается найти этические принципы для Claude в ситуациях, где невозможно прописать четкие правила, а ошибочное решение может иметь серьезные последствия. В компании признают риск того, что их попытки «предоставить Claude достаточно хорошие этические ценности могут провалиться».

Гендиректор некоммерческой организации Humane Intelligence Румман Чоудхури заявила AP, что Кремниевая долина ранее ошибочно считала, что можно создать универсальные этические принципы для генеративного ИИ. По ее словам, теперь компании обращаются к религии как к способу работать с неоднозначными моральными ситуациями.

В то же время Gizmodo отмечает, что Anthropic вряд ли будет интегрировать конкретные религиозные доктрины в Claude. Компания, вероятно, лишь пытается собрать общие моральные принципы и показать, что учла различные подходы к этике.

Источник: НВ