Не секрет, что особой популярностью у интернет-злоумышленников, ищущих жертв в том числе на территории Витебской области, пользуются дипфейки. Проще говоря, они генерируют с помощью искусственного интеллекта поддельные голоса и изображения. Это помогает мошенникам обманывать жертв.
Искусственный интеллект способен сгенерировать изображение и голос любого лица, чем активно пользуются преступники. Это может быть близкий родственник, работодатель, коллега, друг, иное знакомое лицо, а также знаменитость.
Например, в октябре прошлого года врачу одной из ЦРБ области поступил звонок в мессенджере с голосом её руководителя, велевший следовать указаниям правоохранительных органов. После чего ей позвонили якобы сотрудники правоохранительных органов с указаниями оформить на своё имя кредит и перевести его на подконтрольный звонившим счёт с целью разоблачения мошенников.
– Помните, что любая получаемая Вами информация, в том числе от знакомого собеседника подлежит критической оценке, – подчеркивает прокурор отдела прокуратуры Витебской области Роман Кравцов. – На использование дипфейка может указать, что человек редко моргает, движение губ не совпадает со звуком, кожа выглядит неестественно гладкой или «плывет» при движении. При подозрительном звонке или видео следует попросить собеседника поправить очки, дотронуться до лица и т.д. В данном случае маска выдаст себя. Кроме этого можно прервать разговор и перезвонить посредством мобильной связи.