给 iPhone 和 Mac 升级内存对于傻逼 Tim 来说纯属无奈之举。
2022 年底 ChatGPT 爆火以后大家开始发现大语言模型真的有用,到现在无论是从隐私还是便利性上考虑本地运行大语言模型绝对是一个强劲的需求。端侧大模型不需要强大的数学和推理能力,只需要近似达到 GPT3.5 的能力,可以处理翻译、总结、写邮件、帮助用户管理本地文件等这些类似私人助理的轻量任务就行。然而傻逼 Tim 为了最大程度的榨取利润把基本款 Mac 的 RAM 长期限制在 8G ,这使得现在的大量 Mac 仅仅是运行训练好的量化模型都绝无可能。
对于大部分不同用户来说,你给 M 系列处理器性能堆这么高(这里还得打个问号,是不是得另说),结果对个人用户最有用的需求却被 RAM 限制了,完全无法利用处理器性能带来的优势。
现在只能重新布局,推广“大”RAM 的 Mac ,就类似今年的 WWDC 上赶鸭子上架的 Apple Intelligence ,一点提前量不打。
至于广大的基础版 Mac 用户,想用 AI 的话对不起掏钱买新机。 |