Искусственному интеллекту не стоит присылать свои фотографии, портфолио, записи, голос, потому что эти данные могут использовать мошенники. Об этом в интервью радио Sputnik рассказал эксперт в области информационной безопасности, профессор кафедры «Безопасность в цифровом мире» МГТУ им. Баумана Виталий Вехов.
По его словам, нейросети способны смоделировать аудио и видео обращения для мошеннических действий. Он предупредил, что аферисты уже пользуются возможностями ИИ в даркнете.
«У нас же есть разные уровни искусственного интеллекта, и в даркнете до сих пор на, как мы их называем, вражеских сайтах, продаются и сдаются в аренду системы искусственного интеллекта, заточенные под совершение конкретных видов преступлений, связанных с наркотиками, торговлей органами, людьми, оружием, в том числе для совершения мошеннических действий», — заключил Вехов.
Доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин до этого рассказал «Газете.Ru», что ChatGPT сохраняет данные диалогов и присваивает каждому сеансу уникальный идентификатор, что позволяет разработчикам совершенствовать алгоритмы и исправлять ошибки. Но всегда существует риск, что информация может быть использована третьими лицами — от мошенников до спецслужб.
Ранее были названы две основные схемы доступа мошенников к личным данным россиян.