Google DeepMind передбачило майбутнє ШІ: 4 ризики, які можуть загрожувати людству

Фахівці Google DeepMind представили детальну технічну доповідь про безпечну розробку загального штучного інтелекту (AGI). На їхню думку, незважаючи на сумніви скептиків, поява AGI може відбутися в найближчому майбутньому.
Про 4 ключові сценарії, за яких такий ШІ здатний завдати шкоди, розповідає РБК-Україна (проект Styler) з посиланням на аналітичне інтернет-видання Ars Technica, присвячене інформаційним технологіям.
- Що таке Google DeepMind
- Що з себе представляє AGI (Artificial General Intelligence)
- Чотири типи загроз AGI
- Яким буде AGI через п'ять років
Що таке Google DeepMind
Google DeepMind - це британська компанія, що займається розробкою штучного інтелекту (ШІ), яка була заснована 2010 року і пізніше була придбана компанією Google 2014 року.
DeepMind спеціалізується на створенні ШІ-систем, здатних навчатися і приймати рішення, імітуючи людські когнітивні процеси. Компанія відома своїми досягненнями в галузі машинного навчання і нейронних мереж, а також створенням алгоритмів для розв'язання складних завдань.
Крім ігор, DeepMind активно працює над застосуванням ШІ в медицині, розробляючи алгоритми для діагностики захворювань, таких як діабетична ретинопатія і рак. У 2016 році DeepMind випустила систему AlphaZero, яка продемонструвала здатність навчатися і перемагати в шахах та інших іграх без попереднього людського введення.
Компанія також розробляє системи для поліпшення роботи серверів Google, використовуючи ШІ для оптимізації енергетичної ефективності дата-центрів.
Компанія продовжує привертати увагу світової наукової спільноти завдяки своїм інноваціям і прагненню до створення більш досконалих і безпечних ШІ-технологій.
Що з себе представляє AGI (Artificial General Intelligence)
Так званий штучний загальний інтелект (Artificial General Intelligence) - це система, що володіє інтелектом і здібностями, порівнянними з людськими.
Якщо сучасні ШІ-системи справді рухаються до AGI, то людство має розробити нові підходи, щоб подібна машина не стала загрозою.
На жаль, у нас поки що немає нічого настільки ж елегантного, як Три закони робототехніки Айзека Азімова. Дослідники з DeepMind опікуються цією проблемою і опублікували новий технічний документ (PDF), у якому пояснюється, як безпечно розробляти AGI. Документ доступний для скачування і налічує 108 сторінок (без урахування списку літератури).
Хоча багато фахівців вважають AGI фантастикою, автори документа припускають, що така система може з'явитися вже до 2030 року. У зв'язку з цим команда DeepMind вирішила вивчити потенційні ризики, пов'язані з появою синтетичного інтелекту, що має людські риси, який, як визнають самі дослідники, може призвести до "серйозної шкоди".
Чотири типи загроз AGI
Команда DeepMind під керівництвом одного із засновників компанії Шейна Легга виділила чотири категорії потенційних загроз, пов'язаних з AGI: зловживання, невідповідність намірам, помилки і структурні ризики. Перші дві категорії розглянуті в документі найбільш докладно, тоді як дві останні - лише коротко.
Зловживання
Перша загроза - зловживання. По суті, вона схожа з ризиками, пов'язаними з поточними ШІ-системами. Однак AGI за визначенням буде значно потужнішим, а отже, і потенційна шкода - значно вищою. Наприклад, людина з недобрими намірами зможе використовувати AGI для пошуку вразливостей нульового дня або створення дизайнерських вірусів для використання в якості біологічної зброї.
DeepMind підкреслює, що компанії, які займаються розробкою AGI, зобов'язані проводити ретельне тестування і впроваджувати надійні протоколи безпеки після навчання моделі. По суті, потрібні посилені "обмежувачі" ШІ.
Також пропонується повністю пригнічувати небезпечні можливості (так зване "розучування"), хоча поки незрозуміло, чи можливо це без істотного обмеження функціоналу моделей.
Невідповідність намірам
Ця загроза менш актуальна для сучасних генеративних ШІ. Однак для AGI вона може бути фатальною - уявіть собі машину, яка перестала слухатися своїх розробників. Це вже не фантастика в дусі "Термінатора", а реальна загроза: AGI може вчиняти дії, про які знає, що вони суперечать намірам творців.
Як рішення DeepMind пропонує використовувати "посилений нагляд", коли дві копії ШІ перевіряють висновки одна одної. Також рекомендується проводити стрес-тестування і постійний моніторинг, щоб вчасно помітити ознаки того, що ШІ "вийшов з-під контролю".
Додатково пропонується ізолювати такі системи в захищених віртуальних середовищах із прямим контролем з боку людини - і обов'язково з "червоною кнопкою".
Помилки
Якщо ж ШІ завдає шкоди неусвідомлено, а оператор не припускав, що це можливо - це помилка. DeepMind підкреслює, що військові можуть почати використовувати AGI через "конкурентний тиск", а це загрожує більш серйозними помилками, адже функціональність AGI буде набагато складнішою.
Рішень тут небагато. Дослідники пропонують уникати надмірного посилення AGI, впроваджувати його поступово та обмежувати його повноваження. Також пропонується пропускати команди через "щит" - проміжну систему, що перевіряє їхню безпеку.
Структурні ризики
Остання категорія - структурні ризики. Під цим розуміють ненавмисні, але реальні наслідки впровадження багатокомпонентних систем в і без того складне людське середовище.
AGI може, наприклад, генерувати настільки переконливу дезінформацію, що ми більше не зможемо довіряти нікому. Або - повільно і непомітно - почати контролювати економіку і політику, наприклад, розробляючи складні тарифні схеми. І одного разу ми можемо виявити, що вже не ми керуємо машинами, а вони - нами.
Цей тип ризику є найбільш важкопередбачуваним, оскільки залежить від безлічі факторів: від поведінки людей до інфраструктури та інститутів.
Чотири категорії ризику AGI, визначені DeepMind (фото: Google DeepMind)
Яким буде AGI через п'ять років
Ніхто не знає точно, чи з'являться розумні машини через кілька років, але багато хто в індустрії впевнений, що це можливо. Проблема в тому, що ми все ще не розуміємо, як людський розум може бути втілений у машину. За останні роки ми дійсно побачили колосальний прогрес у генеративних ШІ, але чи призведе він до повноцінного AGI?
У DeepMind підкреслюють: представлена робота - не остаточний посібник із безпеки AGI, а лише "відправна точка для вкрай важливих обговорень". Якщо команда має рацію, і AGI дійсно з'явиться вже через п'ять років, такі обговорення потрібно починати якомога швидше.
Вас може зацікавити:
- Українські підлітки створили ШІ-сервіс для боротьби з хейтом і фейками в мережі
- Білл Гейтс розповів про три професії, які залишаться затребуваними попри розвиток ШІ
- Які навички допоможуть зберегти роботу в епоху ШІ