mlx-local-inference

Skill

by bendusy

clawhub26/10

用于在Mac上调用本地AI(文本生成、向量化、语音转文字、OCR或图像理解)。通过localhost:8000/...的oMLX网关调用LLM/VLM。

在Mac本地通过MLX网关调用AI能力,支持文本生成、向量嵌入、语音转文字、OCR及图像理解等多模态任务,无需联网保护隐私。

📊 商业分析

商业模式
free
独特价值
专为Mac MLX框架优化,统一封装文本/嵌入/语音/OCR/视觉多模态本地推理接口
竞品
1. Ollama(更成熟、社区更大、跨平台,但无MLX优化);2. LM Studio(GUI友好、支持更多模型,但无API网关集成);3. Jan.ai(全功能本地AI客户端,但Mac M系列优化不如MLX专项)

🎯 应用场景

目标用户
Mac M系列芯片开发者注重数据隐私的AI工程师需要离线AI能力的独立开发者

📦 安装方式

openclaw install bendusy-mlx-local-inference
🔗 安装/下载链接 →