Финансист и «настоящие» мошенники
В Гонконге произошёл резонансный случай мошенничества с использованием дипфейков (искусственных видео с помощью нейросетей). Пострадавшим оказался финансист, который поверил, что разговаривает с настоящим начальником и коллегами.
Что такое дипфейк?
Дипфейки — это фальшивые видео, в которых нейросети используют человеческие лица, чтобы создать видимость присутствия людей, которых на самом деле нет на записи. Они могут быть использованы для создания фальшивых новостей, рекламы или обмана людей. В данном случае дипфейкеры использовали видео с настоящими людьми, но подделали их так, чтобы они говорили и двигались, как будто они настоящие. Финансист думал, что общается с реальным начальником и коллегами. Как это произошло? Финансист из Гонконга перевёл дипфейку, который выдавал себя за его начальника, $25,6 миллиона долларов. Он сделал это после недели общения с ним и другими «коллегами». Перед этим финансист общался с дипфейками по видеосвязи, думая, что говорит с реальными людьми. Они двигались и говорили, как настоящие, пояснил пострадавший. По словам жертвы, мошенники общались с ним в течение недели, используя видеоконференцсвязь, и всё это время он был убеждён, что видит и слышит реальных людей. Они требовали от финансиста перевести деньги на указанные счета, угрожая разоблачением в случае отказа. Финансист выполнил требование, потому что не хотел, чтобы его репутация пострадала. Позже финансист понял, что его обманули, и обратился в полицию. Полиция арестовала одного из подозреваемых, но расследование продолжается.Этот случай показывает, что дипфейки могут быть очень опасными, особенно если они используются для обмана и обмана. Они могут заставить людей совершать действия, которые они не сделали бы, если бы знали правду. В этом случае финансист потерял большую сумму денег из-за своей доверчивости и невнимательности.Мошенники часто используют различные уловки, чтобы обмануть людей. Они могут использовать искусственный интеллект, чтобы создавать фальшивые новости, рекламу или даже видео с участием настоящих людей. Это может привести к серьёзным последствиям для жертв мошенничества, которые могут потерять деньги, доверие или даже свою репутацию. Дипфейки также известны как искусственный интеллект с изменённой перспективой. Они используют нейросети, чтобы манипулировать изображениями и звуком, создавая фальшивые события или ситуации. Они могут использоваться для распространения ложной информации, создания фейковых новостей или других форм манипуляции.
Заключение
Мошенникам легко обмануть других людей, используя уловки и технологии, такие как дипфейк. Будьте осторожны с незнакомцами и проверяйте информацию, которую вы получаете, чтобы не стать жертвой мошенничества.Этот инцидент также подчёркивает важность обучения людей распознаванию дипфейка. Люди должны понимать, что нейросети могут создавать фальшивые изображения и звук, и что они должны быть осторожны с информацией, полученной в интернете.