Этот туториал демонстрирует создание локальной многоагентной системы Retrieval-Augmented Generation (RAG), обходя необходимость в дорогостоящих больших языковых моделях (LLM). Agentic RAG использует AI-агентов для планирования и выполнения задач, улучшая масштабируемость и оптимизацию RAG. Многоагентная система, использующая небольшую, эффективную модель, такую как Granite 3.2, предлагает превосходную производительность по сравнению с одиночными агентами. Система использует модульную архитектуру со специализированными агентами: Планировщик, Помощник по исследованию, Суммаризатор, Критик, Агент рефлексии и Генератор отчетов. Каждый агент выполняет определенную роль, способствуя эффективному выполнению задач и повышению точности. AutoGen (AG2) организует рабочий процесс и принятие решений, наряду с Ollama для локального обслуживания LLM и Open WebUI для взаимодействия с пользователем. Все компоненты имеют открытый исходный код, уделяя приоритетное внимание конфиденциальности и экономической эффективности. Система использует такие инструменты, как векторные базы данных для поиска документов и SearXNG для веб-поиска. Подробные инструкции по настройке доступны в репозитории проекта на GitHub. Этот подход создает мощную и ориентированную на конфиденциальность систему искусственного интеллекта, доступную на персональном ноутбуке.
dev.to
Build a multi-agent RAG system with Granite locally
Create attached notes ...
