«Почти весь контент на госканалах является антисоветским...»
Александр Колпакиди
Современный пользователь привык к мгновенным ответам от голосовых помощников и рекомендательных систем, и больше не готов тратить время на навигацию по сложным интерфейсам банков. Традиционный поиск, основанный на сопоставлении символов, становится прямым источником недовольства и операционных издержек.
Стоит отметить, что, по данным аналитиков, в 2024 году глобальные затраты на системы машинного обучения в банковской сфере достигли $5,43 млрд. И это только начало: по прогнозам, к 2034 году рынок вырастет до $41,67 млрд. Как лидеры рынка переводят взаимодействие с клиентом на качественно новый уровень с помощью LLM, рассказал Product Manager Андрей Мишурин, который обладает более чем десятилетним опытом работы.
Навигационный паралич и операционная неэффективность
По данным опроса Группы Arenadata, в банковском секторе ИИ чаще всего применяют для обслуживания клиентов через чат-ботов и виртуальных ассистентов (23,2%), обнаружения мошеннических операций (18,4%), создания персонализированных предложений (14,7%), автоматизации внутренних процессов (12,8%) и кредитного скоринга (8,9%).
При этом основной проблемой, с которой столкнулись многие банки, стала диспропорция между сложностью продукта и доступностью информации. Сложные экосистемы приложений порождают «навигационный тупик».
«Наш внутренний аудит выявил следующую картину: примерно 60% всех запросов, поступавших в нашу службу поддержки, имели навигационную природу. Это были не сложные вопросы о мошенничестве или инвестициях, а поиски, например, „Где найти справку о доходах?“ или „Как создать счет на оплату?“. Эти запросы перегружали операторов, увеличивали время ожидания и, что самое главное, говорили о том, что основной интерфейс не соответствует ожиданиям современного цифрового пользователя», — комментирует Андрей Мишурин.
Традиционные системы поиска, которые работают по принципу словарного сопоставления, не справляются с естественной речью.
Пользователь, формулирующий сложный запрос, например: «Подскажите, как правильно оплатить страховые взносы за ИП?», получал бы ответ, где были бы перечислены инструкции с упоминанием страховых взносов или документов по ранее внесенным платежам. В итоге человеку приходилось бы самостоятельно восстанавливать инструкцию по крупицам, ведь единого ответа на вопрос с четкой инструкцией нет. Либо приходилось бы писать в чат с поддержкой или, еще хуже, звонить на горячую линию.
Внедрение «Умного поиска» на базе LLM
Ответом стало решение перейти от модели поиска, ориентированной на структуру сайта, к разговорной парадигме, где приоритет отдается семантическому пониманию запроса. Андрей Мишурин и его команды сфокусировались на создании инструмента, глубоко интегрированного в банковский контекст, умеющий искать информацию по разделам, документам и давать краткую справочную информацию, при этом воспринимая «человеческий» запрос.
Внедрение LLM было не просто подключением стороннего API. Это была всесторонняя инженерная задача, где роль менеджера тесно переплеталась с технической экспертизой.
Разработка нового LLM-поиска опиралась на три принципа: единая точка входа для пользователя, доменная точность через RAG-подход и быстрая мобилизация кросс-функциональной команды.
Вместо «дообучения на домене» сделали ставку на retrieval-архитектуру: система сначала находит релевантные регламенты, тарифы, инструкции и сценарии из корпоративной базы знаний, затем собирает ответ на их основе и проходит проверку правил (доступы, обязательные дисклеймеры, формат, запреты). Это позволило масштабировать качество без риска «перепрошивать» модель под каждое изменение в документации.
В рамках централизации доступа поиск был вынесен на самое видное место главной страницы. Он стал точкой входа для пользователей — для навигации и получения ответов.
Была выстроена большая и сложная архитектура, где использовалась LLM от крупного российского провайдера, к ней добавили RAG и подложили «базу знаний» — все регламенты и инструкции, а также агрегированную аналитику реальных клиентских обращений.
Для реализации этого была проведена командная мобилизация: Андрей руководил двумя кросс-функциональными командами, задачей которых было создание LLM-поиска, способного связывать нечеткие пользовательские запросы с соответствующей банковской документацией и функциями. Кроме того, была развернута инфраструктура для автоматизированного конвейера оптимизации базы знаний. Это гарантировало постоянную актуальность данных, используемых моделью.
Результаты не заставили себя ждать. Уже на этом этапе, за счет способности системы понимать намерения пользователя, удалось зафиксировать сокращение объема нагрузки на службу поддержки на 16%. Клиенты получали ответы мгновенно, что снижало их потребность обращаться к живому оператору.
Венцом прорыва стало признание на национальном уровне: разработка Андрея Мишурина одержала победу в национальном премии «Лучшее для России. Развитие регионов». В конкурентной борьбе среди более чем 200 заявок, проект стал лучшим в категории «Финтех и цифровые финансовые сервисы» в номинации «Проект года в области искусственного интеллекта».
Защита персональных данных в генеративном AI
Внедрение генеративных моделей в финансовой сфере ставит под угрозу конфиденциальность, если не принять архитектурных мер. Андрей Мишурин, используя свой опыт в построении надежной облачной инфраструктуры, сделал акцент на полной изоляции персональных данных.
«Мы приняли беспрецедентные меры, чтобы гарантировать, что даже в процессе генерации ответа данные клиентов остаются в периметре доверия, — поясняет эксперт. — Во-первых, мы остановились на отечественной большой языковой модели, что обеспечило больший контроль над инфраструктурой. Во-вторых, мы разработали и внедрили важный цензор-модуль. Это шлюз, который перед передачей запроса в LLM сканирует текст на наличие любых PII (Personally Identifiable Information) — номеров карт, счетов, паспортных данных. Если такая информация обнаружена, цензор-модуль ее немедленно отсекает и маскирует».
Этот модуль работает в связке с RAG (Retrieval-Augmented Generation), который точно определяет, какой именно фрагмент внутренней базы знаний необходим для генерации ответа. Таким образом, LLM получает только чистый контекст и запрос, но никогда не видит исходных конфиденциальных данных клиента.
«Это архитектурное решение позволило безопасно использовать LLM в клиентских сценариях: персональные данные не передаются в модель в исходном виде, а чувствительный контент отсекается до этапа генерации, — отмечает Андрей Мишурин. — Мы выстроили контур, где модель работает только с обезличенным запросом и строго отобранным контекстом, а все операции проходят через политики доступа и аудит».
Эволюция: мультиагентная система «AI Assistant»
Успех точечного внедрения «Умного поиска» позволил команде приступить к созданию полноценной мультиагентной системы «AI Assistant». Эта система переходит от простого поиска к проактивному управлению клиентскими задачами.
Система включает набор специализированных, узконаправленных агентов: один отвечает за маршрутизацию и разбор намерения — оркестратор, второй — за поиск и сбор ответа через RAG, третий — за подготовку действий (черновики платежей/шаблонов) с обязательным подтверждением пользователя, четвертый — за комплаенс-проверку и контроль прав/лимитов.
Результаты внедрения LLM в поиск выглядят следующим образом: дополнительное сокращение объема обращений в чат поддержки на 20% и снижение нагрузки на колл-центр еще на 15%. Более того, система предлагает контекстуально релевантные действия, что привело к увеличению числа вовлеченных взаимодействий на 50% по сравнению с традиционным текстовым поиском.
Заключение
Трансформация клиентского сервиса в банке — сложный процесс, который требует глубоких технических компетенций и сильных менеджерских качеств, способных доказать ценность инноваций руководству и успешно управлять кросс-функциональными командами.
Как доказывает опыт Андрея Мишурина, где каждый этап развития продукта подкреплен измеримыми аналитическими данными, AI в поиске — необходимый элемент для снижения операционных расходов и повышения удовлетворенности клиентов.
Банки, которые научатся переводить вопросы клиентов на язык семантического понимания, используя при этом стандарты безопасности, станут лидерами цифрового финансового ландшафта ближайшего десятилетия.
Последние новости о банках, банковских картах, сбережениях и финансовых рынках, — в теме «Свободной Прессы».