context-shrink

Skill

by bg1avd

clawhub07/10

当上下文使用量超过85%时自动压缩会话记忆

当AI会话上下文占用超过85%时自动触发记忆压缩,智能摘要保留关键信息,防止对话截断并节省Token消耗。

📊 商业分析

商业模式
free
独特价值
85%阈值自动触发上下文压缩,无需手动干预,防止会话截断丢失关键信息
竞品
1. ChatGPT Memory(官方内置记忆管理,但不支持主动压缩);2. MemoryGPT/MemGPT(开源上下文虚拟化框架,功能更全但部署复杂);3. Auto-context类Prompt(社区零散方案,缺乏阈值触发机制)

🎯 应用场景

目标用户
重度AI对话用户(长会话场景)AI应用开发者(Agent/Copilot构建者)企业AI运维人员(控制Token成本)

📦 安装方式

openclaw install bg1avd-context-shrink
🔗 安装/下载链接 →