Honcho 기억
anchor alias
Honcho 기억
Honcho는 헤르메스 내장 메모리 시스템의 상단에 방사적 사고 깊은 사용자 모델링을 추가하는 AI-native 메모리 백엔드입니다. 간단한 키 가치 저장 대신, Honcho는 사용자의 실행 모델을 유지 - 그들의 선호, 통신 스타일, 목표, 그리고 패턴 - 그들이 일어날 후 대화에 대해 이유로.
Honcho는 Memory Providers 시스템에 통합되어 있습니다. 아래 모든 기능은 통합된 메모리 제공자 인터페이스를 통해 제공됩니다.
정보 수집 더 보기
| 공급 능력 | 내장 메모리 | 운영 정보 |
|---|---|---|
| 횡단보도 | ✔ 파일 기반 MEMORY.md/USER.md | ✔ API로 서버 측 |
| 사용자 프로필 | ✔ 수동 에이전트 포화 | ✔ 자동 방사성 이유 |
| 세션 요약 | — | ✔ Session-scoped 컨텍스트 주입 |
| 다중 시약 고립 | — | · Per-peer 단면도 별거 |
| 관찰 모드 | — | ✔ 통합 또는 방향 관측 |
| 결론 (필수 통찰력) | — | · 패턴에 대한 Server-side reasoning |
| 역사상 | ✔ FTS5 세션 검색 | ✔ 결론에 대한 Semantic 검색 |
Dialectic reasoning: 각 대화 후 (dialecticCadence), Honcho는 사용자의 선호, 습관 및 목표에 대한 교환 및 파생 통찰력을 분석합니다. 이 시간이 지남에 따라 축적, 사용자가 명시적으로 명시된 것을 넘어가는 깊은 이해를 제공합니다. 방사능은 자동 냉/전사 신속한 선택으로 멀티 패스 깊이 (1–3 패스)를 지원합니다. 냉간 시작 쿼리는 일반 사용자에 초점을 맞추고, 따뜻한 쿼리는 세션스코프 컨텍스트를 우선 순위화합니다.
**Session-scoped 컨텍스트 **: Base 컨텍스트는 사용자 표현과 피어 카드와 함께 세션 요약을 포함합니다. 이것은 현재 세션에서 이미 논의 된 것의 에이전트 인식을 제공합니다, 반복 감소 및 지속적인 활성화.
멀티 시약 프로파일: 여러 개의 헤르메스 인스턴스가 동일한 사용자 (예, 코딩 조수 및 개인 조수)에 대해 이야기 할 때 Honcho는 별도의 "peer" 프로파일을 유지합니다. 각 동료는 자신의 관찰과 결론을 볼 수 있으며 컨텍스트의 교차 오염을 방지합니다.
설치하기
hermes memory setup # select "honcho" from the provider list
또는 수동으로 구성:
# ~/.hermes/config.yaml
memory:
provider: honcho
````bash
echo 'HONCHO_API_KEY=***' >> ~/.hermes/.env
honcho.dev에서 API 키를 가져옵니다.
회사연혁
2 층 Context 주입
모든 차례 (hybrid 또는 context 모드에서), Honcho는 시스템 프롬프트로 주사 된 두 개의 레이어를 조립합니다
- Base context - 세션 요약, 사용자 표현, 사용자 동료 카드, AI 자체 대표, AI 정체성 카드.
contextCadence에 새로 고침. 이것은 "이 사용자"레이어입니다. - ** 다이렉트 보충제 ** - 사용자의 현재 상태 및 요구에 대한 LLM 합성 이유.
dialecticCadence에 새로 고침. 이것은 "지금까지 어떤 사정"레이어입니다.
두 층은 contextTokens 예산 (설정한 경우)에 truncated.
Cold/Warm Prompt 선택
방언은 2개의 신속한 전략 사이에서 자동적으로 선정합니다:
- Cold start (베이스 컨텍스트 없음): 일반 쿼리 - "이 사람은 누구입니까? 그들의 선호도, 목표 및 작업 스타일은 무엇입니까
- Warm session (기본 문맥은 존재합니다): Session-scoped 쿼리 - "이 세션에서 논의 된 것은 지금까지, 이 사용자에 대해 어떤 맥락이 가장 관련이 있습니까?"
이것은 기본 상황에 따라 자동으로 발생합니다.
3개의 Orthogonal 카테고리
비용과 깊이는 3개의 독립적인 손잡이에 의해 통제됩니다:
| 설정 | 설명 | 기본값 |
|---|---|---|
contextCadence | context() API 호출 사이의 최소 turn 수. 기본 컨텍스트 레이어를 새로 고칩니다. | 1 |
dialecticCadence | peer.chat() LLM 호출 사이의 최소 turn 수. dialectic 레이어를 새로 고칩니다. | 2 (추천 1-5) |
dialecticDepth | dialectic 호출당 .chat() 패스 수. | 1 |
이 직각은 - 당신은 빈번한 문맥이 저주파에 infrequent 방사성, 또는 깊은 다 통행 방사성으로 상쾌하게 할 수 있습니다. 예: contextCadence: 1, dialecticCadence: 5, dialecticDepth: 2는 기본 컨텍스트를 모든 차례로 새로 고침하고, 각 5개의 회전을 실행하고, 각 방언은 2개의 패스를 만듭니다.
Dialectic 깊이 (다 통행)
dialecticDepth > 1, 각 방언 인 직업은 여러 .chat() 패스를 실행합니다
- 패스 0: 감기 또는 온난한 신속한 (위 보기)
- 패스 1: Self-audit - 초기 평가에서 격차를 식별하고 최근 세션에서 증거를 합성
- 패스 2: Reconciliation - 이전 패스와 최종 합성을 생성하는 피임을위한 체크
각 패스는 비례적인 감응작용 수준을 사용합니다 (조명 초기 패스, 기본 패스의 기본 레벨). dialecticDepthLevels - e.g., ["minimal", "medium", "high"] 의 심도 3 런을 위한 오버라이드 퍼 패스 레벨.
이전 패스가 강한 신호를 반환하면 일찍 통과합니다 (긴, 구조 출력), 그래서 깊이 3 항상 3 LLM 전화를 의미하지 않습니다.
세션 시작 Prewarm
On session init, Honcho는 전체 구성 된 dialecticDepth에서 배경의 방언 호출을 불고 1의 컨텍스트 어셈블리를 설정하기 위해 직접 결과를 끕니다. 추운 동료의 단일 패스는 종종 얇은 출력을 반환합니다 - 멀티 패스 깊이는 사용자가 말하는 전에 감사 / 수리 사이클을 실행합니다. 턴 1에 의해 착륙하지 않은 경우, 1 턴은 경계 시간 아웃과 비동기 통화로 돌아갑니다.
Query-Adaptive Reasoning 레벨
자동 주입된 방사형 가늠자 dialecticReasoningLevel 조회 길이에 의하여: ≥120 숯에 +1 수준, ≥400에 +2, reasoningLevelCap에 죄는 (과태 "high"). reasoningHeuristic: false를 사용하여 모든 자동 호출을 dialecticReasoningLevel로 출력할 수 있습니다. 유효한 수준: minimal, low, medium, high, max.
구성 옵션
Honcho는 ~/.honcho/config.json (글로벌) 또는 $HERMES_HOME/honcho.json (프로필 로컬)로 구성되어 있습니다. 설정 마법사는 당신을 위해 이것을 취급합니다.
전체 Config 참조
| 이름 * | 기본 정보 | 이름 * |
|---|---|---|
contextTokens | null (자본) | 턴 당 자동 주입된 컨텍스트를 위한 토큰 예산. 캡슐에 정수 (e.g. 1200)로 설정합니다. 단어 경계에서 Truncates |
contextCadence | 1 | 최소 회전 사이 context() API 호출 (기본 레이어 새로 고침) |
dialecticCadence | 2 | 최소 회전 사이 peer.chat() LLM 통화 (다이렉트 레이어). 추천 1–5. 에서 tools 모드, 불확실한 - 모델 호출 명시적으로 |
dialecticDepth | 1 | .chat()의 숫자는 방사적 인 발명품 당 전달합니다. 클램프 1–3 |
dialecticDepthLevels | null | 통행 당 reasoning 수준의 선택적인 배열, 예를들면. ["minimal", "low", "medium"]입니다. Overrides 비례적인 기본값 |
dialecticReasoningLevel | 'low' | 기본적인 reasoning 수준: minimal, low, medium, high, max |
dialecticDynamic | true | true일 때, 모델은 공구 퍼머를 통해 레벨을 과감하게 할 수 있습니다 |
dialecticMaxChars | 600 | 시스템 프롬프트로 주입 된 방사성 결과의 최대 char |
recallMode | 'hybrid' | hybrid (자동 주사 + 도구), context (주), tools (툴만) |
writeFrequency | 'async' | 메시지가 유출될 때: async (배경 실), turn (sync), session (End) 또는 정수 N |
saveMessages | true | Honcho API에 메시지가 있는지 |
observationMode | 'directional' | directional (모든) 또는 unified (공유 풀). observation granular 제어를 위한 객체를 가진 Override |
messageMaxChars | 25000 | 메시지 당 최대 차 add_messages()입니다. 초과하는 경우 Chunked |
dialecticMaxInputChars | 10000 | 방사성 쿼리 입력을위한 최대 char peer.chat() |
sessionStrategy | 'per-directory' | per-directory, per-repo, per-session, 또는 global |
Session Strategy는 Honcho 세션 맵을 작업으로 제어합니다
per-session— 각hermes실행은 신선한 세션을 가져옵니다. 깨끗한 시작, 도구를 통해 메모리. 새로운 사용자에 대 한 권장.per-directory- 작업 디렉토리 당 한 혼초 세션. Context는 실행 중에 축적됩니다.per-repo— git 저장소 당 한 세션.global- 모든 감독의 단일 세션.
**Recall 모드 ** 메모리가 대화로 어떻게 흐릅니다
hybrid- 시스템 프롬프트 및 도구로 자동 주입 (모델은 쿼리 할 때 결정).context- 자동 주입만, 숨겨진 도구.tools- 도구 만 자동 주입이 없습니다. 에이전트는 명시적으로 호출해야합니다honcho_reasoning,honcho_search, 등.
Recall 모드당 설정:
| 설정하기 | hybrid | context | tools |
|---|---|---|---|
writeFrequency | 비밀번호 | 비밀번호 | 비밀번호 |
contextCadence | 문베이스 컨텍스트 새로 고침 | 문베이스 컨텍스트 새로 고침 | unlevant - 주입 없음 |
dialecticCadence | 게이트 자동 LLM 호출 | 게이트 자동 LLM 호출 | unlevant - 명시된 모델 호출 |
dialecticDepth | 멀티 패스 퍼 invocation | 멀티 패스 퍼 invocation | unlevant - 명시된 모델 호출 |
contextTokens | 모자 주입 | 모자 주입 | unlevant - 주입 없음 |
dialecticDynamic | 문 모형 override | N/A (공구 없음) | 문 모형 override |
tools 모드에서, 모델은 완전히 제어 중입니다. honcho_reasoning를 호출하면 어떤 reasoning_level를 선택하면 됩니다. Cadence 및 예산 설정은 자동 주입 (hybrid 및 context)과 모드에만 적용됩니다.
관측 (Directional vs. Unified)
Honcho는 메시지를 교환하는 동료들과 대화를 합니다. 각 동료는 1: 1 ~ Honcho's SessionPeerConfig에 두 개의 관측을 가지고 있습니다
| 설정 | 설명 |
|---|---|
observeMe | Honcho가 이 peer 자신의 메시지에서 해당 peer의 표현을 구성합니다. |
observeOthers | 이 peer가 다른 peer의 메시지를 관찰합니다. |
2개의 동료 × 2개의 견인 = 4개의 깃발. observationMode는 짧은 사전 설정입니다
| 모드 | 사용자 플래그 | AI 플래그 | 의미 |
|---|---|---|---|
"directional" (기본값) | me: on, others: on | me: on, others: on | 전체 상호 관측. cross-peer dialectic이 가능하며, AI가 사용자에 대해 아는 내용은 사용자 메시지와 AI 응답 모두를 바탕으로 구성됩니다. |
"unified" | me: on, others: off | me: off, others: on | shared-pool 의미론. AI는 사용자 메시지만 관찰하고, 사용자 peer는 자체 모델만 유지합니다. |
명시된 observation 블록으로 미리 설정할 수 있습니다
"observation": {
"user": { "observeMe": true, "observeOthers": true },
"ai": { "observeMe": true, "observeOthers": false }
}
일반적인 본:
| 목적 | 설정 |
|---|---|
| 전체 관측 (최대 사용자) | "observationMode": "directional" |
| AI는 자체 replies에서 사용자를 재모델하지 않아야 합니다 | "ai": {"observeMe": true, "observeOthers": false} |
| Strong persona AI 동료는 자체 보존에서 업데이트하지 않아야합니다 | "ai": {"observeMe": false, "observeOthers": true} |
Server-side toggles는 Honcho 대쉬보드 을 통해 로컬 디폴트를 통해 이어집니다. - Hermes는 세션 init에서 다시 동기화합니다.
도구
Honcho가 메모리 제공자로 동작할 때는 다음 5개 도구를 사용할 수 있습니다.
| 도구 | 설명 |
|---|---|
honcho_profile | peer card를 읽거나 업데이트합니다. 업데이트하려면 card를 전달하고, 읽기만 하려면 생략합니다. |
honcho_search | 컨텍스트를 semantic search로 검색합니다. 원문 발췌만 반환하고 LLM 합성은 하지 않습니다. |
honcho_context | 전체 세션 컨텍스트를 반환합니다. 요약, 표현, 카드, 최근 메시지를 포함합니다. |
honcho_reasoning | Honcho의 LLM으로 답변을 합성합니다. 깊이는 reasoning_level(minimal/low/medium/high/max)로 제어합니다. |
honcho_conclude | conclusion을 작성하거나 삭제합니다. 생성에는 conclusion, 삭제에는 delete_id를 사용합니다. PII 삭제 용도입니다. |
CLI 명령
hermes honcho subcommand 는 ** 에서 Active Memory Provider** (memory.provider: honcho)만 등록됩니다. hermes memory setup를 실행하고 Honcho를 먼저 선택합니다. subcommand는 다음 invocation에 나타납니다.
hermes honcho status # Connection status, config, and key settings
hermes honcho setup # Redirects to `hermes memory setup`
hermes honcho strategy # Show or set session strategy (per-session/per-directory/per-repo/global)
hermes honcho peer # Show or update peer names + dialectic reasoning level
hermes honcho mode # Show or set recall mode (hybrid/컨텍스트/tools)
hermes honcho tokens # Show or set token budget for 컨텍스트 and dialectic
hermes honcho identity # Seed or show the AI peer's Honcho identity
hermes honcho sync # Sync Honcho config to all existing profiles
hermes honcho peers # Show peer identities across all profiles
hermes honcho sessions # List known Honcho session mappings
hermes honcho map # Map current directory to a Honcho session name
hermes honcho enable # Enable Honcho for the active profile
hermes honcho disable # Disable Honcho for the active profile
hermes honcho migrate # Step-by-step migration guide from openclaw-honcho
hermes honcho에서 마이그레이션
이전에 독립형 hermes honcho setup을 사용한다면:
- 기존 구성 (
honcho.json또는~/.honcho/config.json)은 보존됩니다 - 서버 측 데이터 (메모리, 결론, 사용자 프로필)는 intact
- config.yaml의
memory.provider: honcho를 다시 활성화
re-login 또는 re-setup 필요 없음. hermes memory setup를 실행하고 "honcho"를 선택하십시오. 마법사는 기존 구성을 감지합니다.
전체 문서
Memory Providers — Honcho를 참고하세요.