Финансист и «настоящие» мошенники
В Гонконге произошёл резонансный случай мошенничества с использованием дипфейков (искусственных видео с помощью нейросетей). Пострадавшим оказался финансист, который поверил, что разговаривает с настоящим начальником и коллегами.
Что такое дипфейк?
Дипфейки — это фальшивые видео, в которых нейросети используют человеческие лица, чтобы создать видимость присутствия людей, которых на самом деле нет на записи. Они могут быть использованы для создания фальшивых новостей, рекламы или обмана людей.
В данном случае дипфейкеры использовали видео с настоящими людьми, но подделали их так, чтобы они говорили и двигались, как будто они настоящие. Финансист думал, что общается с реальным начальником и коллегами.
Как это произошло?
Финансист из Гонконга перевёл дипфейку, который выдавал себя за его начальника, $25,6 миллиона долларов. Он сделал это после недели общения с ним и другими «коллегами».
Перед этим финансист общался с дипфейками по видеосвязи, думая, что говорит с реальными людьми. Они двигались и говорили, как настоящие, пояснил пострадавший.
По словам жертвы, мошенники общались с ним в течение недели, используя видеоконференцсвязь, и всё это время он был убеждён, что видит и слышит реальных людей.
Они требовали от финансиста перевести деньги на указанные счета, угрожая разоблачением в случае отказа. Финансист выполнил требование, потому что не хотел, чтобы его репутация пострадала.
Позже финансист понял, что его обманули, и обратился в полицию. Полиция арестовала одного из подозреваемых, но расследование продолжается.
Этот случай показывает, что дипфейки могут быть очень опасными, особенно если они используются для обмана и обмана. Они могут заставить людей совершать действия, которые они не сделали бы, если бы знали правду. В этом случае финансист потерял большую сумму денег из-за своей доверчивости и невнимательности.Мошенники часто используют различные уловки, чтобы обмануть людей. Они могут использовать искусственный интеллект, чтобы создавать фальшивые новости, рекламу или даже видео с участием настоящих людей. Это может привести к серьёзным последствиям для жертв мошенничества, которые могут потерять деньги, доверие или даже свою репутацию.
Дипфейки также известны как искусственный интеллект с изменённой перспективой. Они используют нейросети, чтобы манипулировать изображениями и звуком, создавая фальшивые события или ситуации. Они могут использоваться для распространения ложной информации, создания фейковых новостей или других форм манипуляции.
Заключение
Мошенникам легко обмануть других людей, используя уловки и технологии, такие как дипфейк. Будьте осторожны с незнакомцами и проверяйте информацию, которую вы получаете, чтобы не стать жертвой мошенничества.
Этот инцидент также подчёркивает важность обучения людей распознаванию дипфейка. Люди должны понимать, что нейросети могут создавать фальшивые изображения и звук, и что они должны быть осторожны с информацией, полученной в интернете.