Россиян предупредили о новой схеме мошенников с дипфейками родственников

МВД России: мошенники создают дипфейки родственников и выманивают средства
Dikushin Dmitry/Shutterstock/FOTODOM

Мошенники с помощью искусственного интеллекта (ИИ) делают видео с дипфейками родственников и выманивают деньги. Об этом сообщает РИА Новости со ссылкой на материалы МВД России.

По информации ведомства, аферисты используют нейросети, чтобы создать видео из фотографии, которое воссоздает мимику, голос, жесты и эмоции человека со снимка. На таких видео «аватар» обычно просит занять средства. После этого злоумышленники отправляют видео родственникам и товарищам.

«Что мошенники могут сделать с вашей фотографией? Например, оживить ее..., если однажды ваш родственник или товарищ пришлет видео и попросит занять деньги, то позвоните и поинтересуйтесь о целях платежа. Вероятно, его взломали преступники», — сказано в материалах.

23 августа в МВД РФ заявили, что мошенники начали чаще использовать приложение Google Meet для обмана россиян. В министерстве отметили, что интерес аферистов к приложению вызван двумя причинами. Первая заключается в сложности расследований, поскольку российские правоохранители не могут получать оперативную информацию от компании Google. Вторая причина связана с широкой распространенностью сервиса. Google Meet предустановлено на большинстве смартфонов с Android, что упрощает работу мошенников, уточнили в ведомстве.

Ранее россиян предупредили о мошенниках в дейтинг-приложениях.