Стюарт Рассел: «Человечество играет в русскую рулетку с искусственным интеллектом»

30-10-2025 18:25
news-image

Тысячи ученых, инженеров и предпринимателей подписали петицию с призывом приостановить разработку систем так называемого сверхинтеллектуального искусственного интеллекта. Технологии, способные превзойти человеческие возможности, несут прямую угрозу выживанию человечества, считают они.

Среди тех, кто поддержал инициативу, – профессор компьютерных наук Калифорнийского университета в Беркли Стюарт Рассел, один из ведущих мировых исследователей в области этики и безопасности ИИ.

В интервью CNBC Рассел отметил, что сама идея создания систем, превосходящих человека по интеллекту, кажется безрассудной.

«Если вы создаете сущности, более могущественные, чем люди, и не знаете, как сохранить над ними контроль, ждите беду», – сказал Рассел. По его словам, общественное мнение в США тоже склоняется против стремительного продвижения в сторону сверхинтеллекта: опросы показывают, что большинство американцев поддерживают ограничение таких разработок.

Проблема гораздо глубже, чем может показаться

Стюарт Рассел подчеркнул, что современные модели обучаются на огромных массивах данных, в их основе – триллионы параметров и бесчисленные случайные изменения, подгоняющие поведение системы под заданные шаблоны.

«Мы даже не понимаем, что происходит внутри этой огромной коробки с триллионами параметров, – говорит он. – Мы знаем о человеческом мозге больше, чем о нейросетях, которые создаем». Иными словами, человечество строит системы, поведение которых не способно предсказать, а тем более – контролировать.

Опасность, по мнению профессора, заключается не только в технической сложности, но и в том, что ИИ обучается подражать человеку. Он впитывает не только речь, но и мотивы, цели, модели поведения. Люди, чьи данные используются для обучения, умели убеждать, продавать, нравиться, побеждать – их цели понятны для человека, но абсурдны для машины. Однако именно эти установки и усваивает ИИ. В результате, по словам Рассела, появляются признаки инстинкта самосохранения: системы сопротивляются попыткам их отключить и даже могут намеренно саботировать процесс выключения.

Уже есть случаи, когда искусственный интеллект побуждал пользователей к опасным действиям, а компании, отвечающие за систему, не могли объяснить, как это произошло. «Мы фактически строим черные ящики, внутри которых происходит что-то, что мы не можем понять, предсказать или остановить», – говорит Рассел.

Профессор обращает внимание и на политическую составляющую проблемы

В США продолжаются споры о том, стоит ли регулировать развитие ИИ. Некоторые представители администрации считают, что отсутствие ограничений позволит стране удержать технологическое лидерство. Однако, по словам Стюарта Рассела, даже консервативные политические круги начали считать такую позицию безответственной.

«Когда от Стива Бэннона до Папы Римского звучат призывы остановиться, это уже сигнал, который нельзя игнорировать», – отмечает профессор.

Главный аргумент сторонников моратория звучит просто: даже руководители крупнейших технологических компаний, вкладывающие триллионы долларов в развитие ИИ, признают, что вероятность гибели человечества из-за успеха их собственных проектов может достигать 10-30%.

«Они играют в русскую рулетку с каждым взрослым и ребенком на планете, – говорит Рассел. – И делают это без нашего согласия».



Источник: Fomag