Время прочтения: 3 мин.

Deepfakes становиться последней приманкой в фишинговых схемах. Недавно хакеры обманом заставили управляющего директора британской энергетической компании санкционировать перевод 243 000 долларов на счет в Венгрии, создав поддельную модель голоса, которая звучала как голос генерального директора компании. В электронном письме сотрудник сказал страховщику компании, что «голос был настолько реалистичным, что у него не было выбора, как подчиниться».

Извлечённые уроки

Любой новый технологический или социальный прогресс, неизбежно создает возможности для мошенников извлекать выгоду за счет организаций и отдельных лиц.

Deepfake аудио и видео становиться легко и просто создать с помощью компьютеров и программного обеспечения. Такие видео и аудио файлы используются в образовательных и развлекательных целях, проблема возникает, когда, использование происходит для совершения преступлений. Что могут сделать регулирующие органы, организации и внутренние аудиторы для выявления и противодействия этой угрозе до того, как она причинит ущерб компании?

  • В первую очередь организации должны обучать своих сотрудников тому, как искусственный интеллект может быть использован для мошенничества, чтоб они могли выявлять и предотвращать мошенничество в компании.
  • Осуществление двухэтапного процесса проверки, в ходе которой запрашивается конфиденциальная информация, и включает в себя требование к запрашивающему ввести зашифрованный код доступа отдельно и подтвердить запрос, чтобы проверить его подлинность перед принятием мер.
  • Одним из инструментов, который может помочь выявить мошенничество, является рекуррентная нейронная сеть (RNN). RNN-это вид нейронных сетей, в которых связи между элементами образуют направленную последовательность. Благодаря этому появляется возможность обрабатывать серии событий во времени или последовательные пространственные цепочки и может быть применено к почерку, речи или визуальному распознаванию. Эти сети могут быть обучены для выявления несоответствий.

Применительно к видео deepfakes, RNN может идентифицировать несоответствия в условиях освещения, тени, отражения или даже всего лица, включая физиологические элементы, такие как движение рта, моргание и дыхание. Это возможно, потому что алгоритмы, используемые для построения deepfake работают кадр за кадром, но не учитывают, как создан предыдущий кадр.

Например, Adobe разработала ИИ, который может обнаруживать лица, которые были обработаны в Photoshop. Другой пример использует технологию blockchain вместе с ИИ для создания цифровой подписи, которая не может быть изменена, и будет идентифицировать попытки изменить ее для использования в законных аудио и видео.

  • Видео deepfake могут стать вирусными в социальных сетях, поэтому эти сайты уже работают над борьбой с данной угрозой.

Например, Facebook* создает инженерные команды, которые могут обнаруживать поддельные фотографии, аудио и видео. В дополнение к использованию программного обеспечения, Facebook* и другие компании социальных сетей нанимают людей, чтобы искать deepfakes вручную.

Ключевое напутствие для компаний, особенно для малого и среднего бизнеса, заключается в том, чтобы как можно скорее приступить к обучению пользователей ИИ. Необходимо уделять достаточно внимания защите алгоритмов от возможных атак. Используйте извлечённые уроки и опыты других компаний.

Источник:

* — Признана экстремистской организацией и запрещена на территории Российской Федерации