Шахраї навчились клонувати голос за допомогою Grok: Кіберполіція дала поради щодо безпеки

04-05-2026 18:00
news-image

Компанія Ілона Маска xAI запускає Custom Voices для свого чат-бота Grok. Тепер штучний інтелект може миттєво клонувати будь-який голос на основі короткого аудіозапису. Це може стати небезпечною зброєю в руках шахраїв. Кіберполіція 4 травня дає поради, як не стати жертвою дипфейків.

Кіберполіція радить ввести наступні заходи безпеки: 

  • Секретне слово. Домовтеся з близькими про секретне слово, яке знаєте тільки ви. Якщо вам телефонує «син» з проханням терміново переказати гроші - попросіть назвати пароль.
  • Контрольні запитання. Якщо голос здається схожим, але ситуація підозріла, запитайте про те, що неможливо знайти в соцмережах (наприклад: якого кольору килимок у нашій ванній кімнаті).
  • Запасний канал зв’язку. Отримавши голосове повідомлення або дзвінок - покладіть слухавку і самі передзвоніть цій людині на її звичайний номер.
  • Спокій. Шахраї намагаються створити паніку і відчуття терміновості. Тож, видихайте і мисліть критично.

“Подумайте двічі, перш ніж викладати довгі відео чи сторіз зі своїм чистим голосом у відкриті профілі. Це - ідеальний матеріал для навчання нейромереж. Пам'ятайте: Технології розвиваються швидше, ніж ми встигаємо до них звикнути. Ваша пильність - найкращий фільтр проти маніпуляцій”, - пише Кіберполіція.

Источник: informator.ua

Источник: internetua