Как мы заменили сценарного робота
на понимающего живую речь AI-ассистента

Рассказываем, как наш Заказчик готовится снизить нагрузку на консультантов и кардинально улучшить клиентский сервис
с помощью нового AI-помощника

Кому будет полезен кейс:

  • государственным фондам, крупным сервисным компаниям, банкам, образовательным и медицинским учреждениям — всем, кто работает с большим потоком клиентских обращений и имеет широкую базу знаний;
  • компаниям, стремящимся снизить нагрузку на первую линию поддержки и кардинально улучшить клиентский опыт за счет автоматизации.

chat_bot_image

Проблема / Вызов

На сайте Заказчика работал чат-бот. Но вместо того чтобы помогать, часто становился цифровым барьером. Это был классический сценарный бот, который мог вести пользователя только по жестко прописанным веткам диалога с помощью кнопок.


Основные болевые точки:

  1. Отсутствие гибкости: Если вопрос пользователя был сформулирован чуть иначе или не вписывался в сценарий, бот заходил в тупик с ответом "Я вас не понимаю".
  2. Негативный пользовательский опыт: Предприниматели, люди с дефицитом времени, были вынуждены прерывать бесполезный диалог и либо звонить Заказчику, либо самостоятельно искать информацию на сайте.
  3. Повышенная нагрузка на персонал: Вместо того чтобы автоматизировать рутину, старый бот фактически генерировал дополнительную работу для менеджеров, которым приходилось отвечать на одни и те же вопросы от разочарованных пользователей.
  4. Нулевая проактивность: Бот не мог анализировать запрос и предлагать релевантные услуги или мероприятия, упуская возможность повысить вовлеченность аудитории.
Заказчик понял, что технология, которая должна была стать решением, сама превратилась в проблему.

Существующий сценарный бот не понимал сложные запросы, не поддерживал контекст диалога и не давал ответы не по сценарию. Это создавало "тупики" в общении, заставляло пользователей уходить с сайта или дублировать вопрос живому менеджеру, сводя на нет пользу от автоматизации.

Андрей Журавлев, fullstack-разработчик Maxed.pro

Цели и задачи

Заказчик поставил перед нами четкую задачу — совершить технологический скачок.


Ключевые цели проекта:

  1. Снизить нагрузку на консультантов, автоматизировав ответы на 90% типовых вопросов.
  2. Повысить качество и скорость ответов для пользователей сайта, обеспечив поддержку в режиме 24/7.
  3. Увеличить вовлеченность пользователей за счет проактивных и релевантных предложений услуг Заказчика.
  4. Создать интеллектуального помощника, способного понимать естественную речь и поддерживать осмысленный диалог.

Решение: Управляемый AI на базе LLM и RAG

Просто "подключить ChatGPT" к сайту — быстрый путь к катастрофе: бот будет выдумывать факты, советовать несуществующие услуги и наносить репутационный ущерб. Нашей задачей было создать надежную, управляемую и безопасную систему. Мы спроектировали многоуровневую архитектуру на фреймворке Neuron AI.

1. Интеллектуальное ядро (LLM). В основе бота лежит большая языковая модель (LLM), которая отвечает за понимание естественной речи пользователя: с опечатками, сложными формулировками и уточняющими вопросами.
2. База знаний с технологией RAG (Retrieval-Augmented Generation). Это ключевой элемент, который отличает нашего бота от "фантазера". Мы внедрили технологию RAG.

  • Как это работает: Прежде чем сгенерировать ответ, LLM обращается к заранее подготовленной и верифицированной базе знаний (документы, инструкции, страницы сайта Заказчика). Бот находит релевантные фрагменты информации и строит ответ строго на их основе. Он не придумывает, а цитирует первоисточник, как идеальный консультант.
3. Многоагентная система. Для повышения точности мы разделили логику на двух "агентов":
  • Оркестратор: задача — проанализировать запрос пользователя и понять истинное намерение (например, "хочет узнать о ближайшем вебинаре" или "ищет условия микрозайма");
  • Агент-Ответчик: получив задачу от Оркестратора, обращается к базе знаний и формирует наиболее полный, структурированный и полезный ответ.
4. Плавная эскалация на оператора. Мы спроектировали бесшовный переход. Если бот понимает, что вопрос слишком сложный, он не просто сдается, а предлагает позвать живого консультанта. При этом история диалога сохраняется и передается оператору, чтобы пользователю не пришлось повторять сначала.


Изначально мы планировали автоматически загрузить в базу знаний весь сайт. Но быстро поняли, что это создаст много "шума".  Для MVP мы приняли стратегическое решение: подготовить контент вручную по самым востребованным темам — мероприятиям и консультациям. Да, это дольше. Но позволило добиться максимальной точности ответов на старте.

Андрей Журавлев, fullstack-разработчик Maxed.pro

Процесс и сроки

  • Сроки: 3 месяца
Ключевые этапы разработки MVP:
  1. Проектирование архитектуры: Выбор LLM, проектирование RAG-системы и логики агентов на платформе Neuron AI.
  2. Подготовка базы знаний: Ручной сбор, структурирование и загрузка информации по ключевым услугам Заказчика.
  3. Итеративная настройка промптов: Это была одна из самых сложных задач. Мы провели несколько циклов тестирования, чтобы "научить" бота общаться в нужном тоне — официально, но дружелюбно, — и корректно выполнять свои функции.
  4. Разработка и демонстрация MVP: Создание рабочего прототипа, который наглядно показал клиенту возможности новой системы.

ПоказательБыло
(Старый бот)
Стало
(Новый AI-ассистент)
Способ взаимодействияЖесткие сценарии, клики по кнопкам.Естественный диалог, понимание живой речи.
Качество ответовОтветы только на стандартные вопросы. Частые "тупики".Точные, развернутые ответы на сложные вопросы на основе базы знаний.
Доступность поддержки24/7, но с крайне ограниченным функционалом.Полноценная круглосуточная консультация по ключевым темам.
ВовлечениеНулевое. Бот не мог ничего предложить.Проактивные предложения релевантных услуг и мероприятий в ходе диалога.

Результаты: От кликов
по кнопкам к осмысленному диалогу

Главный итог проекта — полная трансформация пользовательского опыта. Мы создали масштабируемую платформу, готовую к дальнейшему развитию.

Прогнозные результаты после полного внедрения:

  • снижение количества обращений к живым консультантам по типовым вопросам на 40-60%;
  • увеличение конверсии в заявки на услуги Заказчика через сайт;
  • рост индекса удовлетворенности пользователей (CSAT) от взаимодействия с сайтом;
  • среднее время получения ответа на вопрос сократится с нескольких часов (ожидание ответа оператора) до нескольких секунд.

Ключевые выводы

  1. Будущее за управляемыми AI-системами: Успех LLM-бота зависит не от мощности модели, а от качества архитектуры вокруг нее, в первую очередь — от RAG и грамотного промпт-инжиниринга.
  2. Качество данных решает все: "Мусор на входе — мусор на выходе". Инвестиции в создание чистой и структурированной базы знаний — залог точности и надежности AI-ассистента.
  3. Итеративный подход — ключ к успеху: Невозможно с первого раза написать идеальный промпт. Только циклы тестирования и доработки позволяют "настроить" голос и поведение бота.
  4. Сценарные боты мертвы: Для компаний со сложными услугами и большой базой знаний переход на диалоговый AI — это уже не инновация, а необходимое условие для выживания в конкурентной среде.