flash-moe-inference

Skill

by adisinghstudent

clawhub07/10

纯C/Metal实现,支持在MacBook本地运行397B参数MoE大模型,通过SSD流式加载实现内存高效推理,无需云服务完全离线

📊 商业分析

商业模式
freemium
独特价值
首个在MacBook本地运行397B超大MoE模型,零云依赖离线推理能力
竞品
llama.cpp(开源本地推理)、MLX(苹果优化框架)、Ollama(模型管理平台)

🎯 应用场景

目标用户
AI研究员独立开发者隐私敏感企业边缘计算方案商

📦 安装方式

openclaw install adisinghstudent-flash-moe-inference
🔗 安装/下载链接 →