Локальный агент ИИ с использованием LangGraph и Ollama (Полное руководство, Qwen3)
Краткое содержание
Запустите агента LangGraph локально на 100%, используя Ollama + Qwen3 — никаких ключей API и счетов, полный код и руководство по настройке студии. Смотрите полное построение и получайте код (автоматически встроено ниже): https://medium.com/media/ca544c4ed6b68c3d64bd999a4011c49b/href Включает `agent.py`, конфигурацию Studio и минимальные требования. Почему это работает: - Бесплатность, приоритет локальности. - Заменяем GPT-4 на Qwen3 (0.6 млрд параметров, Q4_K_M) через Ollama для прототипирования агентов без ключей API и выставления счетов. - Быстрая итерация. - Начинаем с малого (0.6 млрд), масштабируем только при необходимости — квантование минимизирует нагрузку на память и диск с незначительными потерями качества. - Отличный инструментарий. - StateGraph и ToolNode от LangGraph обеспечивают четкий контроль потока выполнения; трассировка LangSmith и студия LangGraph делают отладку осязаемой. Что мы строим: - Разговорный агент-инструмент (сложение / умножение / деление). - Память между ходами (например, «умножь результат на 2»). - Возможность вмешательства человека в цикл обработки в Studio. - Полностью локальное выполнение с использованием Ollama + Qwen3. Архитектура: - Языковая модель: ChatOllama → qwen3:0.6b-q4_K_M (температура около 0.8, количество предсказаний = 512, топ-p = 0.95) - График агента: S
Полный текст статьи пока не загружен.