Эксперт по кибербезопасности Владимир Ульянов рассказал о рисках использования нейросетей, таких как ChatGPT. Несмотря на системы защиты, существует вероятность утечек персональных данных, что может привести к их использованию мошенниками. Недавний случай с китайской нейросетью DeepSeek подтвердил такие угрозы — эксперты обнаружили уязвимость, позволявшую получить доступ к данным пользователей.
В беседе с ОСН Ульянов отметил, что нейросети собирают данные для улучшения своих алгоритмов, но это также создает риски. Теоретически, злоумышленники могут получить доступ к информации, обойдя ограничения системы или взломав базу данных. Особенно уязвимы пользователи, которые передают в ИИ конфиденциальные сведения, включая рабочие документы и личные переживания.
Мошенники могут использовать утекшие данные для шантажа, обмана или социальной инженерии, выдавая себя за специалистов, чтобы выманить деньги или личную информацию. Чем больше сведений о жертве, тем легче организовать мошенническую схему.
Хотя массовые утечки данных из нейросетей трудно отследить, это не исключает возможных последствий в будущем. Ульянов рекомендует не передавать в ИИ чувствительную информацию и соблюдать меры предосторожности при его использовании.