Они будут просто копировать изображение и голос другого человека, чтобы обмануть своих жертв. В то время как вы разговариваете, их аватар будет повторять ваши движения губ. Злоумышленники планируют осуществлять коммуникацию в режиме реального времени, чтобы жертва не заподозрила подвоха. Однако, пока эти технологии не будут использоваться в ближайшие годы. Сейчас мошенники могут подделывать ваши голосовые сообщения, но внимательные абоненты могут заметить роботизированность интонации и отсутствие фонового шума.
Мошенники вскоре атакуют россиян через видеосвязь с использованием технологии дипфейков
Войдите, чтобы оставить комментарий
Введите почту, получите PIN-код и готово!
Код отправлен на {{ authEmail }}
Введите пароль для {{ authEmail }}
{{ authError }}
Пожаловаться на новость
Оставить комментарий
Если материал нарушает права или содержит недопустимый контент:
Сообщение успешно отправлено!
{{ errorText }}