Спасибо! Готовлю еще одну статью, там подводных камней будет кратно больше чем тут :)
Нет, пробовал только gpt2giga. У LiteLLM не видел поддержку gigachat из коробки, поэтому пришлось бы делать кастомный коннектор, а это по сути gpt2giga
Хороший вопрос. Я сам был немного удивлён, но старшие модели Яндекса и Сбера на практике показали себя вполне адекватно для простых и средних задач — в том числе на английском языке.
Контекст удерживается не только за счёт самой модели, но и за счёт памяти OpenClaw: у каждого агента есть своя история и состояние, которые мы явно прокидываем в запросы. Это сильно снижает требования к «идеальной» контекстной способности модели.
По структурным выводам: для большинства рутинных сценариев (поиск, сбор, первичный анализ, суммаризация) они справляются без жёсткой привязки к structured outputs. Случаи, когда агент не находит ожидаемый фрагмент в ответе, бывают, но пока это скорее редкие edge-cases, а не системная проблема.
Буду дальше тестировать, но с учётом низкой стоимости российских моделей вполне рассматриваю их для фоновых и массовых задач — сбор и анализ статей, постов, подготовка черновиков и т.п.
Права доступа можно настроить достаточно гранулярно. Самый безопасный вариант (и именно так работает по умолчанию) — Яндекс создаёт отдельную папку на Диске под приложение, и OpenClaw получает доступ только к ней.
При необходимости дальше можно аккуратно расширять права под конкретные сценарии.
Помимо цен — заказы (мониторинг FBS/FBO, статусы, дедлайны), остатки (контроль запасов, алерты), безопасность (audit log, rollback), AI-автоматизация (утренние дайджесты).
Сможете со мной поделиться ссылкой?
Спасибо!
Готовлю еще одну статью, там подводных камней будет кратно больше чем тут :)
Нет, пробовал только gpt2giga. У LiteLLM не видел поддержку gigachat из коробки, поэтому пришлось бы делать кастомный коннектор, а это по сути gpt2giga
Не пробовал, для разработки использую Claude Opus 4.6 и иногда Codex.
Хороший вопрос. Я сам был немного удивлён, но старшие модели Яндекса и Сбера на практике показали себя вполне адекватно для простых и средних задач — в том числе на английском языке.
Контекст удерживается не только за счёт самой модели, но и за счёт памяти OpenClaw: у каждого агента есть своя история и состояние, которые мы явно прокидываем в запросы. Это сильно снижает требования к «идеальной» контекстной способности модели.
По структурным выводам: для большинства рутинных сценариев (поиск, сбор, первичный анализ, суммаризация) они справляются без жёсткой привязки к structured outputs. Случаи, когда агент не находит ожидаемый фрагмент в ответе, бывают, но пока это скорее редкие edge-cases, а не системная проблема.
Буду дальше тестировать, но с учётом низкой стоимости российских моделей вполне рассматриваю их для фоновых и массовых задач — сбор и анализ статей, постов, подготовка черновиков и т.п.
Права доступа можно настроить достаточно гранулярно. Самый безопасный вариант (и именно так работает по умолчанию) — Яндекс создаёт отдельную папку на Диске под приложение, и OpenClaw получает доступ только к ней.
При необходимости дальше можно аккуратно расширять права под конкретные сценарии.