В совместном отчёте аналитиков Bitget, SlowMist и Elliptic подчёркивается, что искусственный интеллект и дипфейки стремительно трансформируют криминальный ландшафт крипторынка. Более 40% крупных мошеннических схем в 2024 году были осуществлены с применением поддельных видеороликов и голосовых записей, что поднимает вопрос о подготовленности отрасли к новым вызовам.
Рост числа атак с использованием дипфейков
По данным Bitget, в первом квартале 2024 года мошенники стали активно использовать технологии deepfake для создания убедительных видеообращений от имени официальных представителей криптовалютных бирж и проектов. Это позволяло злоумышленникам обманывать инвесторов посредством фишинговых схем, а также проводить несанкционированные транзакции на миллионы долларов.
Механизмы атак и социальная инженерия
Дипфейк-видео и синтезированные голоса используются для:
- Проведения целевых рассылок и фишинговых писем;
- Манипуляций на онлайн-ивентах и вебинарах;
- Создания поддельных страниц в социальных сетях от лица известных спикеров.
Один из ключевых факторов успеха таких схем – внушение доверия за счёт реалистичности контента, что существенно снижает бдительность даже опытных криптоинвесторов.
Рекомендации по защите
Для снижения рисков специалисты Bitget, SlowMist и Elliptic советуют:
- Использовать многофакторную аутентификацию и аппаратные кошельки;
- Проверять информацию через официальные каналы и валидные сертификаты;
- Применять инструменты AI-анализа и Anti-Fraud решения для обнаружения дипфейков;
- Проводить регулярный аудит безопасности и обучать сотрудников основам кибергигиены.
Только комплексный подход и своевременное внедрение передовых технологий позволят криптобиржам и проектам противостоять угрозам на основе искусственного интеллекта и защитить средства инвесторов.