«Будет сокращение желающих идти в профессию, вообще в медицину...»
Семен Гальперин

В недалеком будущем общественную повестку будет формировать искусственный интеллект, причем такого рода тенденция заметна уже в настоящее время, заявил в ходе круглого стола, посвященного ИИ, руководитель направления таргетинга АНО «Диалог регионы» Никита Дьяков.
«ИИ используется в политтехнологиях. Кто управляет ИИ, тот управляет тем, что считается реальностью. И это не теория», — подчеркнул Дьяков.
В то же время граждане зачастую не видят манипуляции, когда используется ИИ, предупредил Дьяков.
Он привел пример, когда искусственный интеллект использовался при конструировании общественно-политической повестки в канадском Торонто, когда в Сети разгонялись видеоролики с возмущением местных жителей сокращением парковочных мест. Только потом стало ясно, что эти материалы были сгенерированы нейросетью.
Издержки машинного разума: Опасность есть, но нехватка работников заставляет выбирать автоматизацию
ИИ пока работает в полсилы, но потенциальных конкурентов уже находит и увольняет
Кроме того, в ходе ЕДГ-2025 в Чувашии демонстрировались ролики с командой губернатора Олега Николаева, причем за спиной у политиков были видны животные неестественно больших размеров. Сам Николаев появился на сцене вместе с огромным львом, а депутат Госдумы Анатолий Аксаков — с волком.
Конечно, искусственный интеллект в дальнейшем будет более активно использоваться в социальных, общественно-политических процессах, убежден политолог, директор Института системных политических исследований и гуманитарных проектов Анатолий Гагарин.
— Нужно учитывать, что сегодня уже существуют различные манипулятивные приемы при использовании ИИ, которые несут большую угрозу, порой даже для жизни человека. Довольно известен случай, когда ChatGPT довел американского подростка до суицида. Этой крайний случай, конечно. Но в целом использование нейросетей до сих пор не содержит достаточно продуманных защитных механизмов, что создает почву для злоупотреблений и манипуляций разного рода.
Здесь, конечно, остро встает вопрос наличия этических принципов применения новейших технологий. Скажем, на недавних выборах в Челябинске был наложен запрет на некоторые агитационные материалы, сгенерированные нейросетью. Формально тогда причиной послужило нарушение авторских прав на изображение, но ясно, что проблема гораздо шире.
Потребитель должен знать, какая агитационная или интеллектуальная продукция произведена с помощью ИИ, а не конкретного человека или группы людей.
«СП»: Что это дает?
— Понимаете, искусственный интеллект представляет собой некую совокупность данных, которая препарирована определённым образом. Что он делает? Обрабатывает полученную информацию и на ее основании выдаёт затребованный заказчиком продукт. Это не продукт человеческой фантазии, разума человека, а некое обобщение.
Отсюда появляются странные картинки, странные высказывания, которые не ограничены эстетическими и этическими рамками. Поэтому они нуждаются в корректировке со стороны человека, который придерживается, будем надеяться, этических принципов и должен появляющиеся двусмысленности отсекать. Нужен фильтр, прежде всего юридический, работа над которым уже идет.
«СП»: Получается, проблема выходит за рамки собственно политических процессов.
— В том-то и дело, недаром на эту тему философы, политологи написали несколько крупных работ, ряд статей, в которых затронуты темы соприкосновения с трансгуманизмом. Где граница, за которой человек превращается в постчеловека?
Ведь некое искусственное образование начинает нам предлагать рецепты жизни, модели поведения, различные сценарии, по которым мы должны действовать. Так что, здесь вопрос гораздо шире простой предвыборной агитации. По сути, мы имеем в зародыше тот самый «бунт машин», о котором в свое время писали фантасты.
Конечно, сейчас мы нередко наблюдаем использование машин, под которыми подразумевается ИИ, одними людьми для манипулирования другими людьми. У фантастов на эту тему есть немало сценариев, которые не стоит забывать.
И сейчас мы, по большому счету, стоим на развилке, входим в историческую фазу, когда былые фантазии могут воплотиться в реальность. И ролики, созданные нейросетью в недавней избирательной кампании — только первый сигнал, дальше процесс пойдет более активно.
«СП»: Если говорить о манипулировании при помощи фото и видео, то вспоминаются не столь давние события в Ливии, связанные со свержением Муаммара Каддафи. Тогда фейковые ролики, использовавшиеся для манипуляции общественным мнением, снимались в других странах и разгонялись по миру. А теперь ясно, что ИИ может штамповать такие ролики и фото в огромном количестве и намного быстрее. Важно, кто будет заказчиком и с какими мотивами.
— Скажу больше, в англо-бурскую войну 1899−1902 годов британцы активно использовали фальшивые документальные съёмки, инсценировки.
Этот опыт был повторен уже в Первой мировой войне, когда те же британцы использовали пропагандистскую фальшивую продукцию против немцев. То есть, опыт использования информационных фейков идет оттуда.
Думаю, дальнейшее использование ИИ в политических процессах во многом будет происходить по тамошним методичкам, включая попытки фальсификации избирательного процесса.
Не исключено, что с этим явлением мы столкнемся уже в ближайшие избирательные кампании не только у нас, но и на Западе.
Искусственный интеллект: золотая жила или финансовая пирамида?
Юрий Горохов: Это тяжёлая индустрия, требующая много бетона, металла и электроэнергии
«СП»: Как у нас обстоят дела с контролем над использованием ИИ в политических процессах?
— Тут мы практически впереди планеты всей. Наши электоральные юристы уже разрабатывают нормативную базу, которая могла бы выступить своего рода заслоном против бесконтрольного использования ИИ в этой сфере.
«СП»: В условиях недостатка квалифицированных кадров в управленческой среде не возникнет ли соблазн передать часть функций ИИ? Тем более, что в Албании есть опыт назначения министром, отвечающим за госзакупки и подбор кадров, Диэллы — системы искусственного интеллекта.
— Есть информация, что Диэлла уже «обзавелась потомством». Соблазн, конечно, имеется. Именно поэтому проводятся мероприятия, как состоявшийся круглый стол, даются экспертные оценки и рекомендации, к которым, надеюсь, власти будут прислушиваться.
Чтобы соблазн остался всего лишь соблазном. Ведь он возникает прежде всего у недостаточно подготовленных и грамотных деятелей.
Это как нерадивый студент пишет курсовую с использованием ИИ, так и управленец того же пошиба пытается найти решения исключительно у нейросети, хотя обязан принимать их сам.
Люди, воспитанные на советской фантастике, понимают пагубность такого варианта. Надеюсь, у нас будут развиваться формы противодействия этому, включая интеллектуальные и культурные.