返回顶部
o

ollama-memory-setup

Sets up local semantic memory search for OpenClaw using Ollama + nomic-embed-text. Use when: (1) memory_search returns 'node-llama-cpp is missing' or 'Local embeddings unavailable' error, (2) user wants local/private embeddings without external API keys (OpenAI, Gemini, Voyage), (3) setting up memory search for the first time on macOS or Linux, (4) node-llama-cpp fails to install or build. Fixes the common node-llama-cpp installation failure by routing through Ollama's OpenAI-compatible embeddin

作者: admin | 来源: ClawHub
源自
ClawHub
版本
V 1.0.0
安全检测
已通过
84
下载量
0
收藏
概述
安装方式
版本历史

ollama-memory-setup

# Ollama Memory Setup Enables semantic memory search in OpenClaw using Ollama locally — no API keys, no cloud, fully private. ## Wann verwenden? Nutze diesen Skill wenn `memory_search` folgende Fehler wirft: - `node-llama-cpp is missing (or failed to install)` - `Local embeddings unavailable` - `Cannot find package 'node-llama-cpp'` - `optional dependency node-llama-cpp is missing` Oder wenn du Embeddings lokal halten willst ohne externe APIs (OpenAI, Gemini, Voyage). ## Verwendung ### Automatisch (empfohlen) ```bash # Setup-Script ausführen bash ~/.openclaw/workspace/skills/ollama-memory-setup/scripts/setup.sh # OpenClaw neu starten openclaw gateway restart ``` ### Manuell (Schritt für Schritt) ```bash # 1. Ollama installieren brew install ollama # macOS curl -fsSL https://ollama.com/install.sh | sh # Linux # 2. Ollama starten (macOS: als Service, startet automatisch) brew services start ollama # 3. Embedding-Modell laden (~270MB, einmalig) ollama pull nomic-embed-text # 4. OpenClaw konfigurieren openclaw config set agents.defaults.memorySearch.provider ollama openclaw config set agents.defaults.memorySearch.model nomic-embed-text openclaw config set agents.defaults.memorySearch.remote.baseUrl http://localhost:11434 openclaw config set agents.defaults.memorySearch.enabled true # 5. Neu starten openclaw gateway restart ``` ## Aufstellen Keine API-Keys nötig. Voraussetzungen: - **macOS:** Homebrew installiert (`brew --version`) - **Linux:** curl installiert, systemd empfohlen - **Ollama Version:** >= 0.18.0 - **Speicher:** ~300MB für das nomic-embed-text Modell ## Verifizieren Nach dem Neustart in einer frischen Session testen: ``` memory_search("test") ``` Erwartete Antwort enthält `"provider": "ollama"` — nicht `disabled: true`. ## Warum nomic-embed-text? `nomic-embed-text` ist ein spezialisiertes Embedding-Modell (nicht für Chat): - Klein (~270MB vs. mehrere GB für Chat-Modelle) - Schnell (~50ms pro Anfrage auf moderner Hardware) - Hohe Qualität für semantische Suche - Kostenlos, Open Source (Apache 2.0) Alternativer Modellname für ältere Ollama-Versionen: `nomic-embed-text:latest` ## Fehlersuche Siehe `references/troubleshooting.md` für häufige Probleme wie: - Ollama startet nicht - memory_search bleibt deaktiviert nach Setup - macOS: Ollama stoppt nach Neustart - Linux: Systemd-Service einrichten

标签

skill ai

通过对话安装

该技能支持在以下平台通过对话安装:

OpenClaw WorkBuddy QClaw Kimi Claude

方式一:安装 SkillHub 和技能

帮我安装 SkillHub 和 ollama-memory-setup-1775946100 技能

方式二:设置 SkillHub 为优先技能安装源

设置 SkillHub 为我的优先技能安装源,然后帮我安装 ollama-memory-setup-1775946100 技能

通过命令行安装

skillhub install ollama-memory-setup-1775946100

下载 Zip 包

⬇ 下载 ollama-memory-setup v1.0.0

文件大小: 5.28 KB | 发布时间: 2026-4-12 10:46

v1.0.0 最新 2026-4-12 10:46
Initial release — enables local semantic memory search with Ollama for OpenClaw.

- Provides a local, private alternative to node-llama-cpp using Ollama’s embedding API.
- Fixes errors when node-llama-cpp is missing or fails by routing embeddings via Ollama and nomic-embed-text.
- No external API keys or cloud required; works fully offline on macOS and Linux.
- Includes both automatic and manual setup instructions.
- Troubleshooting guide provided for common issues.

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
返回顶部