AI

Mac 用户的福利!Ollama 集成苹果 MLX 框架:推理速度翻倍,M5 芯片直接起飞

PConline 2026-04-01 08:52:00
产品动态
由华为云驱动

3 月 31 日,本地大模型运行方案Ollama正式发布更新,宣布引入苹果自研的机器学习框架 MLX。集成 MLX 框架后的Ollama在性能上实现了提升:预填阶段(Prefill)提速 1.6 倍,生成阶段(Decode)速度翻倍。对于配备 M5 系列芯片的最新机型,推理体验已接近“即时响应”。本...

3 月 31 日,本地大模型运行方案Ollama正式发布更新,宣布引入苹果自研的机器学习框架 MLX。集成 MLX 框架后的Ollama在性能上实现了提升:预填阶段(Prefill)提速 1.6 倍,生成阶段(Decode)速度翻倍。对于配备 M5 系列芯片的最新机型,推理体验已接近“即时响应”。本次更新还深度优化了内存管理策略,能更灵活地利用 Mac 的系统统一内存(Unified Memory)。官方建议用户在配备 32GB 或更高内存的 Mac 上运行,以换取最理想的推理表现。在预览阶段,这一基于 MLX 加速的版本(Ollama 0.19 预览版)主要针对阿里旗下的Qwen 3.5 模型进行了专项支持。Ollama已经明确表示,后续将逐步适配更多主流 AI 模型。
点击展开全文
打开APP,阅读体验更佳

网友评论

聚超值推荐

更多优惠

相关推荐

相关产品
取消