С развитием новых технологий искусственного интеллекта (ИИ) и у мошенников появляется «больше инструментов в своем арсенале для обмана людей, особенно тех, кто не знаком с последними достижениями в области технологий», рассказал Джефф Клун, доцент кафедры компьютерных наук в Университете Британской Колумбии.
Мошенники используют симуляторы голоса, генераторы лиц, дипфейки, фальшивые изображения или видео, созданные на основе существующих и чат-боты, такие как DALL·E, Chat GPT, которые генерируют фото, текстовые ответы, похожие на человеческие. Некоторые из наиболее распространенных методов включают в себя:
- Имитацию голоса: алгоритмы ИИ могут использоваться для имитации голоса доверенного лица, например государственного чиновника или представителя банка, чтобы обманом заставить людей передать конфиденциальную информацию или деньги.
- Дипфейки – это фото, видео или аудиозапись, обработанные с помощью искусственного интеллекта.
- Мошенничество с фишингом: боты на базе ИИ могут генерировать фишинговые электронные письма или текстовые сообщения, которые, как представляется, исходят из надежного источника, такого как банк или интернет-магазин, чтобы обманным путем заставить людей предоставить свою личную информацию или платежные реквизиты.
- Мошенничество с инвестициями: алгоритмы искусственного интеллекта можно использовать для анализа финансовых данных и создания убедительных фальшивых инвестиционных возможностей, которые кажутся подкрепленными данными и исследованиями, тогда как на самом деле они являются просто способом украсть деньги людей.
Дипфейк – это технология позволяющая оживить несуществующих людей, подделать любой голос, мимику, добавить в речь слова, которые человек никогда не произносил.
Для мошенников дипфейк является идеальным инструментом для совершения кибератак и кражи конфиденциальных данных пользователей.
Технология дипфейков основана на мощнейших нейросетях, с помощью которых можно генерировать любые фото- и видеоизображения, манипулировать такими биометрическими данными, как тональность голоса, выражение лица человека. Благодаря дипфейкам можно создавать события, которые никогда не происходили, добавить возраст человеку, или, наоборот, сбросить ему несколько десятков лет, доснять фильм с актером, которого нет в живых, оживить фотографию. И этим активно пользуются не только продюсеры, режиссеры, маркетологи, но и мошенники.
Дипфейки стали использоваться сравнительно недавно, в интернете поддельные видео на основе этой новейшей технологии появились пять лет назад. А в 2019 году прогремела первая крупная афера в мире.
В Великобритании киберпреступники с помощью искусственного интеллекта подделали голос главы крупной энергетической компании и даже его легкий немецкий акцент. Они позвонили к исполнительному директору и под предлогом срочности потребовали перевести 220 тыс. евро в течение часа якобы поставщику. Управленец выполнил указание своего “босса”, но мошенники на этом не остановились и позвонили еще два раза с просьбой совершить дополнительные платежи. Это вызвало подозрения, в результате расследование показало, что была совершена тщательно продуманная хакерская атака с использованием фейкового аудио. Но вернуть средства, как и найти злоумышленников, не удалось.
В 2020 году жертвой мошенников чуть не стал 68-летний адвокат из Филадельфии, который почти поверил звонившему “сыну”. Мошенники использовали дипфейк-аудио молодого человека и позвонили его отцу с просьбой перевести 9 тыс. долларов, но, к счастью, афера была вовремя раскрыта.
В 2021 году в Китае уличили во лжи аферистов, выдававшим своим клиентам поддельные накладные. Они покупали фотографии людей и “оживляли” их с помощью технологии дипфейка, чтобы пройти систему проверки личности налоговой службы. Таким образом преступники заработали свыше 76 млн долларов.
Канадский центр по борьбе с мошенничеством сообщил, что резко возросло мошенничество при романтических знакомствах во время пандемии COVID-19. Мошенники убеждают жертву вступить в онлайн-отношения, и когда жертва начинает им доверять, просят отправить деньги, криптовалюту и подарки.
В 2021 г центр получил 1 928 сообщений о мошенничестве в романтических отношениях, убытки составили $64,5 млн, на 25% больше, чем в 2020 г.
Поскольку дипфейки становится все труднее отличить от подлинного контента, а инструменты для создания убедительных дипфейков становятся все более доступными, мошенники, скорее всего, будут и дальше использовать эту технологию.
Джефф Клун отметил, что мошенничество требует временных затрат. Однако искусственный интеллект может заменить человека, и тогда мошенники смогут вымогать деньги у миллионов человек одновременно.
Законодательство не поспевает за технологиям. Уголовный кодекс Канады запрещает выдавать себя за другого человека, однако создание несуществующего человека не попадает под действие закона. Однако вымогательство остается вымогательством, независимо от того, кто за этим стоит, человек или бот.
Важно проявлять бдительность при предоставлении личной информации или совершении платежей в Интернете, а также с осторожностью относиться к любым запросам, которые кажутся подозрительными или слишком хорошими, чтобы быть правдой. Также рекомендуется быть в курсе последних мошеннических действий и проявлять инициативу в защите вашей личной информации и финансовых активов.