Ролик начал распространяться в соцсетях, уточнили в МИД. Видео создано на основе кадров интервью Захаровой в эфире радио Sputnik 1 октября 2025 года.
"Это очередная фальшивка, созданная с помощью технологий искусственного интеллекта: сгенерированная нейросетью аудиодорожка, имитирующая голос Марии Захаровой, наложена на реальные кадры из интервью", – пояснили в ведомстве.
В фейковом видео обсуждаются якобы события, связанные с СВО и ситуацией в Европе, однако реальные кадры относятся к выборам в Молдавии.
"Напоминаем о необходимости тщательно проверять публикуемую в соцсетях информацию, в том числе достоверность видеоконтента, на официальных ресурсах", – предупредили в МИД РФ.
Глава ведомства Сергей Лавров, столкнувшись с феноменом дипфейков, еще несколько лет назад обратил внимание на их реалистичность, рассказывала ранее Захарова. Дипломат вспомнила, как несколько лет назад ей позвонил Лавров и рассказал о видеоролике с якобы его изображением, который вызвал у него сомнения.
До этого эксперты предупредили о росте дипфейк-атак к концу 2025 года. Аферисты все чаще используют фотографии или видеозаписи, на которых голос или внешность человека подделаны с помощью нейросети.
По данным специалистов, к концу года каждый второй россиянин может столкнуться с таким способом обмана. С совершенствованием технологий распознать такое мошенничество становится сложнее.
Комментарии