llm-supervisor

Skill

by dhardie

clawhub36/10

优雅处理速率限制并提供Ollama回退。在触发速率限制时通知用户,并在代码任务中提示确认切换至本地模型。

智能监控云端LLM速率限制,触发时通知用户并提供一键确认切换至本地Ollama模型,保障代码任务连续执行不中断。

📊 商业分析

商业模式
freemium
独特价值
云端API限速时自动提示并一键切换本地Ollama模型执行代码任务
竞品
1. LiteLLM(功能更全面的多LLM路由,支持更多Provider,但无本地Ollama优雅降级UI);2. RouteLLM(专注成本路由,缺乏用户确认交互);3. Ollama原生CLI(无速率限制感知与自动切换)

🎯 应用场景

目标用户
重度使用OpenAI/Claude API的独立开发者本地部署Ollama的AI工程师需要稳定LLM服务的代码辅助用户

📦 安装方式

openclaw install dhardie-llm-supervisor
🔗 安装/下载链接 →