Перейти к содержанию

Ai Agents Honcho

На этой странице Настройка и использование памяти Honcho с Hermes — межсессионное моделирование пользователя, изоляция нескольких профилей через пиров, настройка наблюдения, диалектическое рассуждение, сводки сессий и контроль бюджета контекста. Используйте при настройке Honcho, устранении неполадок памяти, управлении профилями с пирами Honcho или настройке параметров наблюдения, извлечения и диалектики.

Метаданные навыка

Источник Опционально — установка: hermes skills install official/autonomous-ai-agents/honcho
Путь optional-skills/autonomous-ai-agents/honcho
Версия 2.0.0
Автор Hermes Agent
Лицензия MIT
Теги Honcho, Memory, Profiles, Observation, Dialectic, User-Modeling, Session-Summary
Связанные навыки hermes-agent
## Справочник: полный SKILL.md
info
Ниже приведено полное определение навыка, которое Hermes загружает при его активации. Это то, что агент видит как инструкции, когда навык активен.
# Память Honcho для Hermes
Honcho обеспечивает AI-нативное межсессионное моделирование пользователя. Он узнаёт, кто такой пользователь, в ходе нескольких разговоров и даёт каждому профилю Hermes свою собственную идентичность пира, сохраняя при этом единое представление о пользователе.
## Когда использовать
* Настройка Honcho (облачная или самостоятельная)
* Устранение неполадок: память не работает / пиры не синхронизируются
* Создание многопрофильных конфигураций, где каждый агент имеет своего собственного пира Honcho
* Настройка параметров наблюдения, извлечения, глубины диалектики или частоты записи
* Понимание назначения 5 инструментов Honcho и когда их использовать
* Настройка бюджетов контекста и добавления сводок сессий

Настройка

Облачная версия (app.honcho.dev)

[code] hermes honcho setup
# выберите "cloud", вставьте API-ключ с https://app.honcho.dev

[/code]

Самостоятельная версия

[code] hermes honcho setup
# выберите "local", укажите базовый URL (например, http://localhost:8000)

[/code] См.: https://docs.honcho.dev/v3/guides/integrations/hermes#running-honcho-locally-with-hermes

Проверка

[code] hermes honcho status # показывает разрешённую конфигурацию, тест подключения, информацию о пирах

[/code]

Архитектура

Внедрение базового контекста

Когда Honcho внедряет контекст в системный промпт (в режимах hybrid или context), он собирает базовый блок контекста в следующем порядке: 1. Сводка сессии — краткое содержание текущей сессии (размещается первой, чтобы модель сразу имела непрерывность разговора) 2. Представление пользователя — накопленная модель пользователя в Honcho (предпочтения, факты, паттерны) 3. Карточка AI-пира — идентификационная карточка для AI-пира этого профиля Hermes

Сводка сессии генерируется автоматически Honcho в начале каждого оборота (если существует предыдущая сессия). Она даёт модели «тёплый старт» без воспроизведения полной истории.

Выбор холодного / тёплого промпта

Honcho автоматически выбирает между двумя стратегиями промптов: |Условие| Стратегия| Что происходит| |---|---|---| |Нет предыдущей сессии или пустое представление| Холодный старт| Лёгкий вступительный промпт; пропускает внедрение сводки; побуждает модель узнавать пользователя| |Существует представление и/или история сессии| Тёплый старт| Полное внедрение базового контекста (сводка → представление → карточка); более насыщенный системный промпт| |Вам не нужно это настраивать — это автоматически определяется на основе состояния сессии.|

Пиры

Honcho моделирует разговоры как взаимодействия между пирами. Hermes создаёт два пира на каждую сессию: * Пир-пользователь (peerName): представляет человека. Honcho строит представление пользователя на основе наблюдаемых сообщений. * AI-пир (aiPeer): представляет данный экземпляр Hermes. Каждый профиль получает своего собственного AI-пира, чтобы агенты формировали независимые представления.

Наблюдение

У каждого пира есть два переключателя наблюдения, которые определяют, что Honcho изучает: |Переключатель| Что делает| |---|---| |observeMe| Собственные сообщения пира наблюдаются (формирует самопредставление)| |observeOthers| Сообщения других пиров наблюдаются (формирует межпировое понимание)| |По умолчанию: все четыре переключателя включены (полное двунаправленное наблюдение). Настройка для каждого пира в honcho.json: [code] {
"observation": {
"user": { "observeMe": true, "observeOthers": true },
"ai": { "observeMe": true, "observeOthers": true }
}
}

[/code] Или используйте сокращённые предустановки: |Предустановка| Пользователь| AI| Сценарий использования| |---|---|---|---| |"directional" (по умолчанию)| me:вкл, others:вкл| me:вкл, others:вкл| Многоагентный, полная память| |"unified"| me:вкл, others:выкл| me:выкл, others:вкл| Одиночный агент, моделирование только пользователя| |Изменения, внесённые в панели управления Honcho, синхронизируются при инициализации сессии — конфигурация на сервере имеет приоритет над локальными настройками по умолчанию.|

Сессии

Сессии Honcho определяют область, в которую попадают сообщения и наблюдения. Варианты стратегии: |Стратегия| Поведение| |---|---| |per-directory (по умолчанию)| Одна сессия на рабочую директорию| |per-repo| Одна сессия на корень git-репозитория| |per-session| Новая сессия Honcho каждый запуск Hermes| |global| Единая сессия для всех директорий| |Ручное переопределение: hermes honcho map my-project-name|

Режимы извлечения

Как агент получает доступ к памяти Honcho: |Режим| Автовнедрение контекста?| Доступны инструменты?| Сценарий использования| |---|---|---|---| |hybrid (по умолчанию)| Да| Да| Агент решает, когда использовать инструменты, а когда авто-контекст| |context| Да| Нет (скрыты)| Минимальные затраты токенов, без вызовов инструментов| |tools| Нет| Да| Агент полностью управляет доступом к памяти|

Три ортогональные ручки

Диалектическое поведение Honcho управляется тремя независимыми измерениями. Каждое можно настраивать без влияния на другие:

Каденция (когда)

Управляет как часто происходят вызовы диалектики и контекста. |Ключ| По умолчанию| Описание| |---|---|---| |contextCadence| 1| Минимум оборотов между вызовами API контекста| |dialecticCadence| 2| Минимум оборотов между вызовами API диалектики. Рекомендуется 1–5| |injectionFrequency| every-turn| every-turn или first-turn для внедрения базового контекста| |Более высокие значения каденции запускают диалектическую LLM реже. dialecticCadence: 2 означает, что движок срабатывает через один оборот. Установка 1 — срабатывает каждый оборот.|

Глубина (сколько раундов)

Управляет сколькими раундами диалектического рассуждения Honcho выполняет за запрос. |Ключ| По умолчанию| Диапазон| Описание| |---|---|---|---| |dialecticDepth| 1| 1–3| Количество раундов диалектического рассуждения на запрос| |dialecticDepthLevels| \--| массив| Опциональные переопределения уровня для каждого раунда (см. ниже)| |dialecticDepth: 2 означает, что Honcho выполняет два раунда диалектического синтеза. Первый раунд даёт начальный ответ; второй уточняет его. dialecticDepthLevels позволяет задать уровень рассуждения для каждого раунда независимо: [code] {
"dialecticDepth": 3,
"dialecticDepthLevels": ["low", "medium", "high"]
}

[/code] Если dialecticDepthLevels опущен, раунды используют пропорциональные уровни, производные от dialecticReasoningLevel (базового): |Глубина| Уровни проходов| |---|---| |1| [базовый]| |2| [минимальный, базовый]| |3| [минимальный, базовый, низкий]| |Это позволяет держать ранние проходы дешёвыми, используя полную глубину на финальном синтезе. Глубина при старте сессии. Предварительный прогрев сессии запускает полный настроенный dialecticDepth в фоне до первого оборота. Однораундовый прогрев на холодном пире часто даёт скудный результат — многораундовая глубина запускает цикл аудита/согласования до того, как пользователь скажет хоть слово. Первый оборот использует результат прогрева напрямую; если прогрев не завершился вовремя, первый оборот переключается на синхронный вызов с ограниченным таймаутом.

Уровень (насколько интенсивно)

Управляет интенсивностью каждого раунда диалектического рассуждения. |Ключ| По умолчанию| Описание| |---|---|---| |dialecticReasoningLevel| low| minimal, low, medium, high, max| |dialecticDynamic| true| Если true, модель может передать reasoning_level в honcho_reasoning для переопределения уровня по умолчанию для конкретного вызова. false = всегда используется dialecticReasoningLevel, переопределения модели игнорируются| |Более высокие уровни дают более насыщенный синтез, но требуют больше токенов на бэкенде Honcho.|

Многопрофильная настройка

Каждый профиль Hermes получает своего собственного AI-пира Honcho, разделяя при ту же рабочую область (контекст пользователя). Это означает: * Все профили видят одинаковое представление пользователя * Каждый профиль строит свою собственную AI-идентичность и наблюдения * Выводы, записанные одним профилем, видны другим через общую рабочую область

Создание профиля с пиром Honcho

[code] hermes profile create coder --clone
# создаёт хост-блок hermes.coder, AI-пира "coder", наследует конфигурацию от default

[/code] Что делает --clone для Honcho: 1. Создаёт хост-блок hermes.coder в honcho.json 2. Устанавливает aiPeer: "coder" (имя профиля) 3. Наследует workspace, peerName, writeFrequency, recallMode и т.д. от default 4. Заблаговременно создаёт пира в Honcho, чтобы тот существовал до первого сообщения

Дозаполнение существующих профилей

[code] hermes honcho sync # создаёт хост-блоки для всех профилей, у которых их ещё нет

[/code]

Конфигурация для каждого профиля

Переопределите любую настройку в хост-блоке: [code] {
"hosts": {
"hermes.coder": {
"aiPeer": "coder",
"recallMode": "tools",
"dialecticDepth": 2,
"observation": {
"user": { "observeMe": true, "observeOthers": false },
"ai": { "observeMe": true, "observeOthers": true }
}
}
}
}

[/code]

Инструменты

У агента есть 5 двунаправленных инструментов Honcho (скрыты в режиме context): |Инструмент| Вызов LLM?| Стоимость| Когда использовать| |---|---|---|---| |honcho_profile| Нет| минимальная| Быстрый фактический снимок в начале разговора или для быстрого поиска имени/роли/предпочтений| |honcho_search| Нет| низкая| Получить конкретные факты из прошлого для самостоятельного анализа — сырые выдержки, без синтеза| |honcho_context| Нет| низкая| Полный снимок контекста сессии: сводка, представление, карточка, последние сообщения| |honcho_reasoning| Да| средняя–высокая| Вопрос на естественном языке, синтезированный диалектическим движком Honcho| |honcho_conclude| Нет| минимальная| Записать или удалить постоянный факт; укажите peer: "ai" для самопознания AI|

honcho_profile

Прочитать или обновить карточку пира — подобранные ключевые факты (имя, роль, предпочтения, стиль общения). Передайте card: [...] для обновления; опустите для чтения. Без вызова LLM.

Семантический поиск по сохранённому контексту для указанного пира. Возвращает сырые выдержки, отсортированные по релевантности, без синтеза. По умолчанию 800 токенов, максимум 2000. Полезно, когда вам нужны конкретные факты из прошлого для самостоятельного анализа, а не синтезированный ответ.

honcho_context

Полный снимок контекста сессии от Honcho — сводка сессии, представление пира, карточка пира и последние сообщения. Без вызова LLM. Используйте, когда хотите увидеть всё, что Honcho знает о текущей сессии и пире, за один раз.

honcho_reasoning

Вопрос на естественном языке, на который отвечает диалектический движок Honcho (вызов LLM на бэкенде Honcho). Более высокая стоимость, более высокое качество. Передайте reasoning_level для управления глубиной: minimal (быстро/дёшево) → lowmediumhighmax (тщательно). Опустите, чтобы использовать настроенное значение по умолчанию (low). Используйте для синтезированного понимания паттернов, целей или текущего состояния пользователя.

honcho_conclude

Записать или удалить постоянное заключение о пире. Передайте conclusion: "..." для создания. Передайте delete_id: "..." для удаления заключения (для удаления PII — Honcho самоисцеляет некорректные заключения со временем, так что удаление требуется только для PII). Нужно передать ровно один из двух параметров.

Двунаправленное нацеливание на пиров

Все 5 инструментов принимают опциональный параметр peer: * peer: "user" (по умолчанию) — работает с пиром-пользователем * peer: "ai" — работает с AI-пиром этого профиля * peer: "<explicit-id>" — любой ID пира в рабочей области

Примеры: [code] honcho_profile # прочитать карточку пользователя
honcho_profile peer="ai" # прочитать карточку AI-пира
honcho_reasoning query="Что этому пользователю важнее всего?"
honcho_reasoning query="Каковы мои паттерны взаимодействия?" peer="ai" reasoning_level="medium"
honcho_conclude conclusion="Предпочитает краткие ответы"
honcho_conclude conclusion="Я склонен слишком подробно объяснять код" peer="ai"
honcho_conclude delete_id="abc123" # удаление PII

[/code]

Паттерны использования агентом

Рекомендации для Hermes, когда память Honcho активна.

В начале разговора

[code] 1. honcho_profile → быстрый прогрев, без затрат LLM
2. Если контекст выглядит скудным → honcho_context (полный снимок, всё ещё без LLM)
3. Если нужен глубокий синтез → honcho_reasoning (вызов LLM, использовать экономно)

[/code] НЕ вызывайте honcho_reasoning на каждом обороте. Автовнедрение уже обеспечивает постоянное обновление контекста. Используйте инструмент рассуждения только когда вам действительно нужна синтезированная информация, которую не даёт базовый контекст.

Когда пользователь делится чем-то, что нужно запомнить

[code] honcho_conclude conclusion="<конкретный, применимый факт>"

[/code] Хорошие заключения: «Предпочитает примеры кода текстовым объяснениям», «Работает над Rust-проектом с асинхронностью до апреля 2026». Плохие заключения: «Пользователь что-то сказал о Rust» (слишком размыто), «Пользователь выглядит технически подкованным» (уже есть в представлении)

Когда пользователь спрашивает о прошлом контексте / вам нужно вспомнить детали

[code] honcho_search query="<тема>" → быстро, без LLM, хорошо для конкретных фактов
honcho_context → полный снимок со сводкой и сообщениями
honcho_reasoning query="<вопрос>" → синтезированный ответ, используйте, когда поиска недостаточно

[/code]

Когда использовать peer: "ai"

Используйте нацеливание на AI-пира для построения и запроса самопознания агента: * honcho_conclude conclusion="Я склонен быть многословным при объяснении архитектуры" peer="ai" — самокоррекция * honcho_reasoning query="Как я обычно обрабатываю неоднозначные запросы?" peer="ai" — самоаудит * honcho_profile peer="ai" — просмотр собственной идентификационной карточки

Когда НЕ вызывать инструменты

В режимах hybrid и context базовый контекст (представление пользователя + карточка + сводка сессии) автоматически внедряется перед каждым оборотом. Не перезапрашивайте то, что уже было внедрено. Вызывайте инструменты только когда: * Вам нужно то, чего нет во внедрённом контексте * Пользователь явно просит вспомнить или проверить память * Вы записываете заключение о чём-то новом

Осведомлённость о каденции

honcho_reasoning на стороне инструмента имеет ту же стоимость, что и диалектика автовнедрения. После явного вызова инструмента каденция автовнедрения сбрасывается — это позволяет избежать двойной оплаты за один оборот.

Справочник конфигурации

Файл конфигурации: $HERMES_HOME/honcho.json (для профиля) или ~/.honcho/config.json (глобальный).

Ключевые настройки

Ключ По умолчанию Описание
apiKey \-- API-ключ (получить)
baseUrl \-- Базовый URL для самостоятельной версии Honcho
peerName \-- Идентичность пира-пользователя
aiPeer ключ хоста Идентичность AI-пира
workspace ключ хоста ID общей рабочей области
recallMode hybrid hybrid, context или tools
observation всё вкл Логические значения observeMe/observeOthers для каждого пира
writeFrequency async async, turn, session или целое число N
sessionStrategy per-directory per-directory, per-repo, per-session, global
messageMaxChars 25000 Макс. символов на сообщение (делится на части при превышении)
### Настройки диалектики
Ключ По умолчанию Описание
--- --- ---
dialecticReasoningLevel low minimal, low, medium, high, max
dialecticDynamic true Автоповышение уровня рассуждения в зависимости от сложности запроса. false = фиксированный уровень
dialecticDepth 1 Количество диалектических раундов на запрос (1–3)
dialecticDepthLevels \-- Опциональный массив уровней для каждого раунда, например [\"low\", \"high\"]
dialecticMaxInputChars 10000 Макс. символов для входных данных диалектического запроса
### Бюджет контекста и внедрение
Ключ По умолчанию Описание
--- --- ---
contextTokens без лимита Макс. токенов для комбинированного внедрения базового контекста (сводка + представление + карточка). Опциональный лимит — опустите для отсутствия ограничения, укажите целое число для ограничения размера внедрения.
injectionFrequency every-turn every-turn или first-turn
contextCadence 1 Минимум оборотов между вызовами API контекста
dialecticCadence 2 Минимум оборотов между вызовами диалектической LLM (рекомендуется 1–5)
Бюджет contextTokens применяется в момент внедрения. Если сводка сессии + представление + карточка превышают бюджет, Honcho урезает сначала сводку, затем представление, сохраняя карточку. Это предотвращает раздувание контекста в длительных сессиях.
### Санитизация контекста памяти
Honcho санитизирует блок memory-context перед внедрением для предотвращения инъекций в промпт и некорректного содержимого:
* Удаляет XML/HTML-теги из заключений, созданных пользователем
* Нормализует пробелы и управляющие символы
* Обрезает отдельные заключения, превышающие messageMaxChars
* Экранирует последовательности-разделители, которые могут нарушить структуру системного промпта

Это исправление решает пограничные случаи, когда сырые пользовательские заключения, содержащие разметку или спецсимволы, могут повредить внедрённый блок контекста.

Устранение неполадок

«Honcho не настроен»

Выполните hermes honcho setup. Убедитесь, что memory.provider: honcho присутствует в ~/.hermes/config.yaml.

Память не сохраняется между сессиями

Проверьте hermes honcho status — убедитесь, что saveMessages: true и writeFrequency не session (записывает только при выходе).

Профиль не получает своего пира

Используйте --clone при создании: hermes profile create <name> --clone. Для существующих профилей: hermes honcho sync.

Изменения наблюдений в панели управления не отражаются

Конфигурация наблюдения синхронизируется с сервера при каждой инициализации сессии. Начните новую сессию после изменения настроек в интерфейсе Honcho.

Сообщения обрезаны

Сообщения, превышающие messageMaxChars (по умолчанию 25 тыс.), автоматически разбиваются на части с маркерами [continued]. Если вы часто с этим сталкиваетесь, проверьте, не раздувают ли размер сообщения результаты инструментов или содержимое навыков.

Внедрение контекста слишком велико

Если вы видите предупреждения о превышении бюджета контекста, уменьшите contextTokens или снизьте dialecticDepth. Сводка сессии урезается первой, когда бюджет ограничен.

Отсутствует сводка сессии

Сводка сессии требует как минимум одного предыдущего оборота в текущей сессии Honcho. При холодном старте (новая сессия, без истории) сводка опускается, и Honcho использует стратегию холодного старта.

Команды CLI

Команда Описание
hermes honcho setup Интерактивный мастер настройки (облачная/локальная, идентичность, наблюдение, извлечение, сессии)
hermes honcho status Показать разрешённую конфигурацию, тест подключения, информацию о пирах для активного профиля
hermes honcho enable Включить Honcho для активного профиля (создаёт хост-блок при необходимости)
hermes honcho disable Отключить Honcho для активного профиля
hermes honcho peer Показать или обновить имена пиров (--user <имя>, --ai <имя>, --reasoning <уровень>)
hermes honcho peers Показать идентичности пиров во всех профилях
hermes honcho mode Показать или установить режим извлечения (hybrid, context, tools)
hermes honcho tokens Показать или установить бюджет токенов (--context <N>, --dialectic <N>)
hermes honcho sessions Список известных привязок директория-к-имени-сессии
hermes honcho map <name> Привязать текущую рабочую директорию к имени сессии Honcho
hermes honcho identity Заполнить идентичность AI-пира или показать представления обоих пиров
hermes honcho sync Создать хост-блоки для всех профилей Hermes, у которых их ещё нет
hermes honcho migrate Пошаговое руководство по миграции с родной памяти OpenClaw на Hermes + Honcho
hermes memory setup Универсальный выбор провайдера памяти (выбор «honcho» запускает тот же мастер)
hermes memory status Показать активного провайдера памяти и конфигурацию
hermes memory off Отключить внешнего провайдера памяти
* Метаданные навыка
* Справочник: полный SKILL.md
* Когда использовать
* Настройка
* Облачная версия (app.honcho.dev)
* Самостоятельная версия
* Проверка
* Архитектура
* Внедрение базового контекста
* Выбор холодного / тёплого промпта
* Пиры
* Наблюдение
* Сессии
* Режимы извлечения
* Три ортогональные ручки
* Каденция (когда)
* Глубина (сколько раундов)
* Уровень (насколько интенсивно)
* Многопрофильная настройка
* Создание профиля с пиром Honcho
* Дозаполнение существующих профилей
* Конфигурация для каждого профиля
* Инструменты
* honcho_profile
* honcho_search
* honcho_context
* honcho_reasoning
* honcho_conclude
* Двунаправленное нацеливание на пиров
* Паттерны использования агентом
* В начале разговора
* Когда пользователь делится чем-то, что нужно запомнить
* Когда пользователь спрашивает о прошлом контексте / вам нужно вспомнить детали
* Когда использовать peer: "ai"
* Когда НЕ вызывать инструменты
* Осведомлённость о каденции
* Справочник конфигурации
* Ключевые настройки
* Настройки диалектики
* Бюджет контекста и внедрение
* Санитизация контекста памяти
* Устранение неполадок
* «Honcho не настроен»
* Память не сохраняется между сессиями
* Профиль не получает своего пира
* Изменения наблюдений в панели управления не отражаются
* Сообщения обрезаны
* Внедрение контекста слишком велико
* Отсутствует сводка сессии
* Команды CLI