Размер шрифта
Новости Спорт
Выйти
Переговоры о мире на УкраинеНовые файлы Эпштейна
Общество

Мошенники начали использовать созданные ИИ голоса родственников

Волк: мошенники используют созданные ИИ голоса в своих схемах

Мошенники используют искуственный интеллект (ИИ) для имитации голоса родственников или доверенных лиц своих жертв. Об этом заявила официальный представитель МВД РФ Ирина Волк, слова которой передает ТАСС.

«В основе большинства таких схем лежит способность генеративных моделей создавать правдоподобный текстовый, визуальный или аудиовизуальный контент, который воспринимается потерпевшим как подлинный, что позволяет злоумышленникам имитировать личности доверенных лиц», — подчеркнула Волк.

Офицер полиции рассказала, что как правило генеративные модели используются для имитации голоса родственников, но это могут быть также ложные сотрудники банков, представители государственных органов или публичные деятели. Волк при этом пояснила, что аферисты, используя синтезированные голоса или видеозаписи, могут провоцировать пользователей на переводы денег или раскрытие персональных данных.

До этого представитель полиции рассказала, как отличить сгенерированные ИИ документы от подлинных. По ее информации, созданные с использованием нейросетей фотографии и различные документы часто содержат противоречивые сведения, в них также отсутствуют мелкие детали и искажен фон.

Ранее россиян предупредили о мошенниках, предлагающих «продлить договор с оператором».


 
Больше никаких импульсивных покупок. Как НДС для онлайн-торговли из-за рубежа повлияет на цены
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на RusTopNews.Online в MAX Все ключевые события — в нашем канале. Подписывайтесь!