context-compactor

Skill

by emberdesire

clawhub05/10

针对不报告上下文限制的本地模型(MLX、llama.cpp、Ollama)的基于token的上下文压缩

为MLX、llama.cpp、Ollama等不主动上报上下文窗口的本地模型提供基于Token计数的上下文自动压缩,防止溢出截断。

📊 商业分析

商业模式
free
独特价值
针对MLX/llama.cpp等不报告上下文限制的本地模型做token级压缩
竞品
1. LangChain ConversationSummaryBufferMemory:内置上下文压缩与摘要,生态更完善;2. LlamaIndex ContextCompressor:支持多种压缩策略,与RAG深度集成;3. MemGPT/Letta:虚拟上下文管理,自动分页,功能更全面

🎯 应用场景

目标用户
本地部署LLM的独立开发者使用Mac MLX推理的AI爱好者隐私敏感的企业AI工程师

📦 安装方式

openclaw install emberdesire-context-compactor
🔗 安装/下载链接 →