ollama-memory-embeddings

MCP Server

by vidarbrekke

clawhub46/10

配置 OpenClaw 内存搜索使用 Ollama 作为嵌入服务器(OpenAI 兼容的 /v1/embeddings),替换内置的 node-llama-cpp 本地 GGUF 加载。支持交互式模型选择,并可选择将现有本地嵌入 GGUF 导入 Ollama。

将OpenClaw内存搜索改造为使用Ollama本地嵌入服务,支持交互式模型选择,实现完全离线向量化与记忆检索。

📊 商业分析

商业模式
free
独特价值
本地Ollama无缝集成,规避云端API成本与数据隐私风险,完全离线向量化
竞品
LangChain内置Ollama集成、LlamaIndex向量存储、Pinecone官方SDK

🎯 应用场景

目标用户
AI应用开发者企业知识库建设者隐私敏感场景用户

📦 安装方式

openclaw install vidarbrekke-ollama-memory-embeddings
🔗 安装/下载链接 →