Мошенники научились оживлять фотографии, чтобы выманивать деньги. В нашей области зафиксированы попытки использовать дипфейки в преступных целях.
О новой волне интернет-мошенничества предупреждают в департаменте полиции и Telegram-канале Aqparat saqshysy (@aqparatsaqsysy)
Современные аферисты используют возможности искусственного интеллекта, чтобы создавать поддельные видео якобы от имени родственников и друзей своих жертв. На роликах близкие вам люди просят занять деньги. На самом деле это подделка.
Подобные видео выглядят правдоподобно: на них человек с фотографии двигается, говорит, выражает эмоции и жестами просит о помощи, создается иллюзия, что запись реальна.
Полицейские призывает быть особенно осторожными и не верить таким обращениям без проверки.
— Не переводите деньги по видеообращению, даже если там ваш родственник. Перезвоните и уточните, действительно ли человек просит помощь. Проведите разъяснительную беседу с пожилыми родными, которые могут не знать о таких технологиях, — советует оперуполномоченный управления по противодействию киберпреступности капитан полиции Жанибек Шагиров.
Он отметил, что пока к ним не поступали заявления именно по фактам дипфейков с родственниками. Однако случаи использования ИИ уже были.
— Преступники через искусственный интеллект меняли свое лицо, облачались в форму следователей, имитировали сотрудников антикоррупционного ведомства, — сообщил он.
Как предупредил Жанибек Шагиров, мошенники применяли дипфейки для оформления кредитов на других людей, подделывая их внешний вид и голос. Теперь они перешли к более психологически давящей схеме — используют доверие между близкими.
— Сохраняйте бдительность. За оживленной картинкой может скрываться преступник, — резюмировал Жанибек Шангиров.
Татьяна ТОКАРЬ
📸Иллюстрированное фото из открытых интернет-источников
Комментарии