Свободная Пресса на YouTube Свободная Пресса Вконтакте Свободная Пресса в Одноклассниках Свободная Пресса в Телеграм Свободная Пресса в Дзен

Эксперт по кибербезопасности назвал риски использования нейросетей

477

Эксперт по кибербезопасности Владимир Ульянов рассказал о рисках использования нейросетей, таких как ChatGPT. Несмотря на системы защиты, существует вероятность утечек персональных данных, что может привести к их использованию мошенниками. Недавний случай с китайской нейросетью DeepSeek подтвердил такие угрозы — эксперты обнаружили уязвимость, позволявшую получить доступ к данным пользователей.

В беседе с ОСН Ульянов отметил, что нейросети собирают данные для улучшения своих алгоритмов, но это также создает риски. Теоретически, злоумышленники могут получить доступ к информации, обойдя ограничения системы или взломав базу данных. Особенно уязвимы пользователи, которые передают в ИИ конфиденциальные сведения, включая рабочие документы и личные переживания.

Мошенники могут использовать утекшие данные для шантажа, обмана или социальной инженерии, выдавая себя за специалистов, чтобы выманить деньги или личную информацию. Чем больше сведений о жертве, тем легче организовать мошенническую схему.

Хотя массовые утечки данных из нейросетей трудно отследить, это не исключает возможных последствий в будущем. Ульянов рекомендует не передавать в ИИ чувствительную информацию и соблюдать меры предосторожности при его использовании.

Новости дня
Цитаты
Дмитрий Солонников

Директор Института современного государственного развития

Роберт Нигматулин

Академик РАН

Александр Сафонов

Доктор экономических наук, профессор Финансового университета при правительстве РФ

СП-Видео