context-shrink
Skillby bg1avd
clawhub⭐ 07/10
当上下文使用量超过85%时自动压缩会话记忆
当AI会话上下文占用超过85%时自动触发记忆压缩,智能摘要保留关键信息,防止对话截断并节省Token消耗。
📊 商业分析
商业模式
free
独特价值
85%阈值自动触发上下文压缩,无需手动干预,防止会话截断丢失关键信息
竞品
1. ChatGPT Memory(官方内置记忆管理,但不支持主动压缩);2. MemoryGPT/MemGPT(开源上下文虚拟化框架,功能更全但部署复杂);3. Auto-context类Prompt(社区零散方案,缺乏阈值触发机制)
🎯 应用场景
目标用户
重度AI对话用户(长会话场景)AI应用开发者(Agent/Copilot构建者)企业AI运维人员(控制Token成本)
工具信息
- 类型
- Skill
- 平台
- clawhub
- Stars
- ⭐ 0
- 价值评分
- 7/10
- 子分类
- AI上下文管理与会话优化
- 可商业化
- ❌ 否
AI 标签
上下文压缩会话记忆管理Token优化长对话续航Prompt工程
相关工具推荐
skill-creatorSKILL
由Anthropic官方出品,支持从零创建AI Skill、编辑优化现有Skill、运行评估测试并进行方差分析的性能基准对比,实现AI能力工程化闭环管理。
9/10⭐ 86,759
conversation-memorySKILL
为LLM对话提供短期、长期、实体三层持久化记忆系统,让AI真正记住用户,支持跨会话上下文延续与知识积累。
9/10⭐ 22,346
self-improvingSKILL
具备自我反思、自我批评、持续学习与记忆组织能力的自进化Agent,自动评估并永久改进输出质量,无需人工反复校正。
9/10⭐ 638
proactive-agentSKILL
将AI Agent从被动任务执行者升级为主动预判伙伴,内置WAL协议、工作缓冲区与自主定时任务,支持持续自我改进的智能体框架
9/10⭐ 628
cellcogSKILL
DeepResearch Bench排名第一的全模态AI代理框架。通过多代理编排实现深度推理与文本、图像、音频、视频等全模态融合,支持复杂任务自动化。
9/10⭐ 6