본문으로 건너뛰기

Honcho 기억

anchor alias

Honcho 기억

Honcho는 헤르메스 내장 메모리 시스템의 상단에 방사적 사고 깊은 사용자 모델링을 추가하는 AI-native 메모리 백엔드입니다. 간단한 키 가치 저장 대신, Honcho는 사용자의 실행 모델을 유지 - 그들의 선호, 통신 스타일, 목표, 그리고 패턴 - 그들이 일어날 후 대화에 대해 이유로.

Honcho is a Memory Provider Plugin

Honcho는 Memory Providers 시스템에 통합되어 있습니다. 아래 모든 기능은 통합된 메모리 제공자 인터페이스를 통해 제공됩니다.

정보 수집 더 보기

공급 능력내장 메모리운영 정보
횡단보도✔ 파일 기반 MEMORY.md/USER.md✔ API로 서버 측
사용자 프로필✔ 수동 에이전트 포화✔ 자동 방사성 이유
세션 요약✔ Session-scoped 컨텍스트 주입
다중 시약 고립· Per-peer 단면도 별거
관찰 모드✔ 통합 또는 방향 관측
결론 (필수 통찰력)· 패턴에 대한 Server-side reasoning
역사상✔ FTS5 세션 검색✔ 결론에 대한 Semantic 검색

Dialectic reasoning: 각 대화 후 (dialecticCadence), Honcho는 사용자의 선호, 습관 및 목표에 대한 교환 및 파생 통찰력을 분석합니다. 이 시간이 지남에 따라 축적, 사용자가 명시적으로 명시된 것을 넘어가는 깊은 이해를 제공합니다. 방사능은 자동 냉/전사 신속한 선택으로 멀티 패스 깊이 (1–3 패스)를 지원합니다. 냉간 시작 쿼리는 일반 사용자에 초점을 맞추고, 따뜻한 쿼리는 세션스코프 컨텍스트를 우선 순위화합니다.

**Session-scoped 컨텍스트 **: Base 컨텍스트는 사용자 표현과 피어 카드와 함께 세션 요약을 포함합니다. 이것은 현재 세션에서 이미 논의 된 것의 에이전트 인식을 제공합니다, 반복 감소 및 지속적인 활성화.

멀티 시약 프로파일: 여러 개의 헤르메스 인스턴스가 동일한 사용자 (예, 코딩 조수 및 개인 조수)에 대해 이야기 할 때 Honcho는 별도의 "peer" 프로파일을 유지합니다. 각 동료는 자신의 관찰과 결론을 볼 수 있으며 컨텍스트의 교차 오염을 방지합니다.

설치하기

hermes memory setup    # select "honcho" from the provider list

또는 수동으로 구성:

# ~/.hermes/config.yaml
memory:
provider: honcho
````bash
echo 'HONCHO_API_KEY=***' >> ~/.hermes/.env

honcho.dev에서 API 키를 가져옵니다.

회사연혁

2 층 Context 주입

모든 차례 (hybrid 또는 context 모드에서), Honcho는 시스템 프롬프트로 주사 된 두 개의 레이어를 조립합니다

  1. Base context - 세션 요약, 사용자 표현, 사용자 동료 카드, AI 자체 대표, AI 정체성 카드. contextCadence에 새로 고침. 이것은 "이 사용자"레이어입니다.
  2. ** 다이렉트 보충제 ** - 사용자의 현재 상태 및 요구에 대한 LLM 합성 이유. dialecticCadence에 새로 고침. 이것은 "지금까지 어떤 사정"레이어입니다.

두 층은 contextTokens 예산 (설정한 경우)에 truncated.

Cold/Warm Prompt 선택

방언은 2개의 신속한 전략 사이에서 자동적으로 선정합니다:

  • Cold start (베이스 컨텍스트 없음): 일반 쿼리 - "이 사람은 누구입니까? 그들의 선호도, 목표 및 작업 스타일은 무엇입니까
  • Warm session (기본 문맥은 존재합니다): Session-scoped 쿼리 - "이 세션에서 논의 된 것은 지금까지, 이 사용자에 대해 어떤 맥락이 가장 관련이 있습니까?"

이것은 기본 상황에 따라 자동으로 발생합니다.

3개의 Orthogonal 카테고리

비용과 깊이는 3개의 독립적인 손잡이에 의해 통제됩니다:

설정설명기본값
contextCadencecontext() API 호출 사이의 최소 turn 수. 기본 컨텍스트 레이어를 새로 고칩니다.1
dialecticCadencepeer.chat() LLM 호출 사이의 최소 turn 수. dialectic 레이어를 새로 고칩니다.2 (추천 1-5)
dialecticDepthdialectic 호출당 .chat() 패스 수.1

이 직각은 - 당신은 빈번한 문맥이 저주파에 infrequent 방사성, 또는 깊은 다 통행 방사성으로 상쾌하게 할 수 있습니다. 예: contextCadence: 1, dialecticCadence: 5, dialecticDepth: 2는 기본 컨텍스트를 모든 차례로 새로 고침하고, 각 5개의 회전을 실행하고, 각 방언은 2개의 패스를 만듭니다.

Dialectic 깊이 (다 통행)

dialecticDepth > 1, 각 방언 인 직업은 여러 .chat() 패스를 실행합니다

  • 패스 0: 감기 또는 온난한 신속한 (위 보기)
  • 패스 1: Self-audit - 초기 평가에서 격차를 식별하고 최근 세션에서 증거를 합성
  • 패스 2: Reconciliation - 이전 패스와 최종 합성을 생성하는 피임을위한 체크

각 패스는 비례적인 감응작용 수준을 사용합니다 (조명 초기 패스, 기본 패스의 기본 레벨). dialecticDepthLevels - e.g., ["minimal", "medium", "high"] 의 심도 3 런을 위한 오버라이드 퍼 패스 레벨.

이전 패스가 강한 신호를 반환하면 일찍 통과합니다 (긴, 구조 출력), 그래서 깊이 3 항상 3 LLM 전화를 의미하지 않습니다.

세션 시작 Prewarm

On session init, Honcho는 전체 구성 된 dialecticDepth에서 배경의 방언 호출을 불고 1의 컨텍스트 어셈블리를 설정하기 위해 직접 결과를 끕니다. 추운 동료의 단일 패스는 종종 얇은 출력을 반환합니다 - 멀티 패스 깊이는 사용자가 말하는 전에 감사 / 수리 사이클을 실행합니다. 턴 1에 의해 착륙하지 않은 경우, 1 턴은 경계 시간 아웃과 비동기 통화로 돌아갑니다.

Query-Adaptive Reasoning 레벨

자동 주입된 방사형 가늠자 dialecticReasoningLevel 조회 길이에 의하여: ≥120 숯에 +1 수준, ≥400에 +2, reasoningLevelCap에 죄는 (과태 "high"). reasoningHeuristic: false를 사용하여 모든 자동 호출을 dialecticReasoningLevel로 출력할 수 있습니다. 유효한 수준: minimal, low, medium, high, max.

구성 옵션

Honcho는 ~/.honcho/config.json (글로벌) 또는 $HERMES_HOME/honcho.json (프로필 로컬)로 구성되어 있습니다. 설정 마법사는 당신을 위해 이것을 취급합니다.

전체 Config 참조

이름 *기본 정보이름 *
contextTokensnull (자본)턴 당 자동 주입된 컨텍스트를 위한 토큰 예산. 캡슐에 정수 (e.g. 1200)로 설정합니다. 단어 경계에서 Truncates
contextCadence1최소 회전 사이 context() API 호출 (기본 레이어 새로 고침)
dialecticCadence2최소 회전 사이 peer.chat() LLM 통화 (다이렉트 레이어). 추천 1–5. 에서 tools 모드, 불확실한 - 모델 호출 명시적으로
dialecticDepth1.chat()의 숫자는 방사적 인 발명품 당 전달합니다. 클램프 1–3
dialecticDepthLevelsnull통행 당 reasoning 수준의 선택적인 배열, 예를들면. ["minimal", "low", "medium"]입니다. Overrides 비례적인 기본값
dialecticReasoningLevel'low'기본적인 reasoning 수준: minimal, low, medium, high, max
dialecticDynamictruetrue일 때, 모델은 공구 퍼머를 통해 레벨을 과감하게 할 수 있습니다
dialecticMaxChars600시스템 프롬프트로 주입 된 방사성 결과의 최대 char
recallMode'hybrid'hybrid (자동 주사 + 도구), context (주), tools (툴만)
writeFrequency'async'메시지가 유출될 때: async (배경 실), turn (sync), session (End) 또는 정수 N
saveMessagestrueHoncho API에 메시지가 있는지
observationMode'directional'directional (모든) 또는 unified (공유 풀). observation granular 제어를 위한 객체를 가진 Override
messageMaxChars25000메시지 당 최대 차 add_messages()입니다. 초과하는 경우 Chunked
dialecticMaxInputChars10000방사성 쿼리 입력을위한 최대 char peer.chat()
sessionStrategy'per-directory'per-directory, per-repo, per-session, 또는 global

Session Strategy는 Honcho 세션 맵을 작업으로 제어합니다

  • per-session — 각 hermes 실행은 신선한 세션을 가져옵니다. 깨끗한 시작, 도구를 통해 메모리. 새로운 사용자에 대 한 권장.
  • per-directory - 작업 디렉토리 당 한 혼초 세션. Context는 실행 중에 축적됩니다.
  • per-repo — git 저장소 당 한 세션.
  • global - 모든 감독의 단일 세션.

**Recall 모드 ** 메모리가 대화로 어떻게 흐릅니다

  • hybrid - 시스템 프롬프트 및 도구로 자동 주입 (모델은 쿼리 할 때 결정).
  • context - 자동 주입만, 숨겨진 도구.
  • tools - 도구 만 자동 주입이 없습니다. 에이전트는 명시적으로 호출해야합니다 honcho_reasoning, honcho_search, 등.

Recall 모드당 설정:

설정하기hybridcontexttools
writeFrequency비밀번호비밀번호비밀번호
contextCadence문베이스 컨텍스트 새로 고침문베이스 컨텍스트 새로 고침unlevant - 주입 없음
dialecticCadence게이트 자동 LLM 호출게이트 자동 LLM 호출unlevant - 명시된 모델 호출
dialecticDepth멀티 패스 퍼 invocation멀티 패스 퍼 invocationunlevant - 명시된 모델 호출
contextTokens모자 주입모자 주입unlevant - 주입 없음
dialecticDynamic문 모형 overrideN/A (공구 없음)문 모형 override

tools 모드에서, 모델은 완전히 제어 중입니다. honcho_reasoning를 호출하면 어떤 reasoning_level를 선택하면 됩니다. Cadence 및 예산 설정은 자동 주입 (hybridcontext)과 모드에만 적용됩니다.

관측 (Directional vs. Unified)

Honcho는 메시지를 교환하는 동료들과 대화를 합니다. 각 동료는 1: 1 ~ Honcho's SessionPeerConfig에 두 개의 관측을 가지고 있습니다

설정설명
observeMeHoncho가 이 peer 자신의 메시지에서 해당 peer의 표현을 구성합니다.
observeOthers이 peer가 다른 peer의 메시지를 관찰합니다.

2개의 동료 × 2개의 견인 = 4개의 깃발. observationMode는 짧은 사전 설정입니다

모드사용자 플래그AI 플래그의미
"directional" (기본값)me: on, others: onme: on, others: on전체 상호 관측. cross-peer dialectic이 가능하며, AI가 사용자에 대해 아는 내용은 사용자 메시지와 AI 응답 모두를 바탕으로 구성됩니다.
"unified"me: on, others: offme: off, others: onshared-pool 의미론. AI는 사용자 메시지만 관찰하고, 사용자 peer는 자체 모델만 유지합니다.

명시된 observation 블록으로 미리 설정할 수 있습니다

"observation": {
"user": { "observeMe": true, "observeOthers": true },
"ai": { "observeMe": true, "observeOthers": false }
}

일반적인 본:

목적설정
전체 관측 (최대 사용자)"observationMode": "directional"
AI는 자체 replies에서 사용자를 재모델하지 않아야 합니다"ai": {"observeMe": true, "observeOthers": false}
Strong persona AI 동료는 자체 보존에서 업데이트하지 않아야합니다"ai": {"observeMe": false, "observeOthers": true}

Server-side toggles는 Honcho 대쉬보드 을 통해 로컬 디폴트를 통해 이어집니다. - Hermes는 세션 init에서 다시 동기화합니다.

도구

Honcho가 메모리 제공자로 동작할 때는 다음 5개 도구를 사용할 수 있습니다.

도구설명
honcho_profilepeer card를 읽거나 업데이트합니다. 업데이트하려면 card를 전달하고, 읽기만 하려면 생략합니다.
honcho_search컨텍스트를 semantic search로 검색합니다. 원문 발췌만 반환하고 LLM 합성은 하지 않습니다.
honcho_context전체 세션 컨텍스트를 반환합니다. 요약, 표현, 카드, 최근 메시지를 포함합니다.
honcho_reasoningHoncho의 LLM으로 답변을 합성합니다. 깊이는 reasoning_level(minimal/low/medium/high/max)로 제어합니다.
honcho_concludeconclusion을 작성하거나 삭제합니다. 생성에는 conclusion, 삭제에는 delete_id를 사용합니다. PII 삭제 용도입니다.

CLI 명령

hermes honcho subcommand 는 ** 에서 Active Memory Provider** (memory.provider: honcho)만 등록됩니다. hermes memory setup를 실행하고 Honcho를 먼저 선택합니다. subcommand는 다음 invocation에 나타납니다.

hermes honcho status          # Connection status, config, and key settings
hermes honcho setup # Redirects to `hermes memory setup`
hermes honcho strategy # Show or set session strategy (per-session/per-directory/per-repo/global)
hermes honcho peer # Show or update peer names + dialectic reasoning level
hermes honcho mode # Show or set recall mode (hybrid/컨텍스트/tools)
hermes honcho tokens # Show or set token budget for 컨텍스트 and dialectic
hermes honcho identity # Seed or show the AI peer's Honcho identity
hermes honcho sync # Sync Honcho config to all existing profiles
hermes honcho peers # Show peer identities across all profiles
hermes honcho sessions # List known Honcho session mappings
hermes honcho map # Map current directory to a Honcho session name
hermes honcho enable # Enable Honcho for the active profile
hermes honcho disable # Disable Honcho for the active profile
hermes honcho migrate # Step-by-step migration guide from openclaw-honcho

hermes honcho에서 마이그레이션

이전에 독립형 hermes honcho setup을 사용한다면:

  1. 기존 구성 (honcho.json 또는 ~/.honcho/config.json)은 보존됩니다
  2. 서버 측 데이터 (메모리, 결론, 사용자 프로필)는 intact
  3. config.yaml의 memory.provider: honcho를 다시 활성화

re-login 또는 re-setup 필요 없음. hermes memory setup를 실행하고 "honcho"를 선택하십시오. 마법사는 기존 구성을 감지합니다.

전체 문서

Memory Providers — Honcho를 참고하세요.