На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
Подписывайтесь на RusTopNews.Online в MAX Все ключевые события — в нашем канале. Подписывайтесь!
Все новости
Новые материалы +
Размер текста
А
А
А

Россиянам рассказали, какие данные опасно передавать ИИ

Специалист Вехов: фотографии и голос опасно передавать ИИ
true
true
true

Искусственному интеллекту не стоит присылать свои фотографии, портфолио, записи, голос, потому что эти данные могут использовать мошенники. Об этом в интервью радио Sputnik рассказал эксперт в области информационной безопасности, профессор кафедры «Безопасность в цифровом мире» МГТУ им. Баумана Виталий Вехов.

По его словам, нейросети способны смоделировать аудио и видео обращения для мошеннических действий. Он предупредил, что аферисты уже пользуются возможностями ИИ в даркнете.

«У нас же есть разные уровни искусственного интеллекта, и в даркнете до сих пор на, как мы их называем, вражеских сайтах, продаются и сдаются в аренду системы искусственного интеллекта, заточенные под совершение конкретных видов преступлений, связанных с наркотиками, торговлей органами, людьми, оружием, в том числе для совершения мошеннических действий», — заключил Вехов.

Доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин до этого рассказал «Газете.Ru», что ChatGPT сохраняет данные диалогов и присваивает каждому сеансу уникальный идентификатор, что позволяет разработчикам совершенствовать алгоритмы и исправлять ошибки. Но всегда существует риск, что информация может быть использована третьими лицами — от мошенников до спецслужб.

Ранее были названы две основные схемы доступа мошенников к личным данным россиян.

Что думаешь?