今天我们聊聊苹果MacBook怎么把AI模型给喂大。IT之家刚曝了个料,开发者Dan Woods在一台M3 Max芯片和48GB统一内存的MacBook Pro上,居然跑通了一个209GB的大家伙——Qwen3.5-397B。这模型平时都在数据中心待着,普通笔记本压根塞不下,Woods是怎么做到的呢? 原来这是靠苹果论文的新招数。2023年苹果提出把模型参数存在高速固态硬盘(NVMe SSD)里,然后用推理成本模型算好,按需把大块数据搬到内存里。这招特别适合MacBook的统一内存架构,让CPU、GPU和内存能一起干活。再加上Qwen模型自带的混合专家(MoE)特性,Dan Woods把每次激活的专家数量从10个砍到了4个。 这就解决了大问题,内存需求降下来了,性能还保住了。这一切还是靠AI帮忙。Woods把苹果论文扔给AI助手Claude Code,让它跑了90次实验,最后自动生成了高度优化的MLX Objective-C和Metal代码。这可是直接跑在苹果芯片上的底层语言。现在这个项目的测试结果和论文都在GitHub上开源了。这就好比给MacBook装了一颗强心脏,让它能“吃”下那么多GB的东西,速度还能保持在5.5 Token每秒以上。