local-first-llm

Skill

by joelnishanth

clawhub17/10

将LLM请求优先路由至本地模型(Ollama、LM Studio、llamafile),失败后回退至云端API,并持续追踪Token节省与成本规避情况。

将LLM请求优先路由至本地模型(Ollama/LM Studio等),失败时自动回退云端API,并持久化追踪token用量与成本节省。

📊 商业分析

商业模式
freemium
独特价值
自动本地优先路由并持久化追踪token节省与成本规避数据
竞品
LiteLLM:功能更全的多模型代理网关但配置复杂;OpenRouter:云端多模型路由但无本地优先策略;Jan.ai:本地模型客户端但缺乏智能回退和成本追踪

🎯 应用场景

目标用户
独立开发者与AI应用创业者注重数据隐私的企业技术团队高频调用LLM API的成本敏感用户

📦 安装方式

openclaw install joelnishanth-local-first-llm
🔗 安装/下载链接 →