人工智能刚刚火了一年,各家的“AI手机”已经打得不可开交。 今年一月,三星率先打出了“Galaxy AI is Coming”的slogan,配合视频中酷炫的功能演示,昭示了想要抱住AI大腿的决心,把以为三星早已退出中国市场的围观群众吓了一跳。春节期间,魅族也搞了个大新闻,宣布停止“传统智能手机”开发,誓要死磕AI。伴随大模型陆续装进终端,手机厂商们纷纷撸起袖子,准备跑步跨入新时代。智能手机行业,这种“厂传厂”现象并不新鲜。过去几年,手机厂商围绕全面屏、折叠屏、快充等技术疯狂内卷。但始终无法改变停滞的市场增长,和消费者越来越长的换机周期。2023年,全球智能手机出货量来到十年来最低谷,突然冒头的生成式AI,仿佛成了又粗又壮的救命稻草[1]。AI一定是手机进化的核心方向,也是所有手机品牌研发开支的主要流向。但迫不及待的把“传统智能手机”扫进历史的垃圾堆,恐怕有点操之过急。
挡在手机厂商面前的,共有三座大山。第一座大山叫功耗。智能手机是一个对便携性要求很高的移动设备。一来不能像PC一样长期插电使用,电池电量又十分有限,所以功耗不能太高,否则耗电速度太快;二来手机体积小,散热差,对发热极其敏感。一个典型的例子是,英伟达的RTX4090峰值功耗可以达到450W,而搭载地表最强处理器的iPhone 15Pro,最高也只能跑到14W。这就在物理层面上把手机的功耗在卡死了。而无论是特斯拉的FSD,还是ChatGPT堪比“百科全书”的本事,背后依托的都是千亿,甚至万亿参数量的大模型。ChatGPT所搭载的GPT-3.5,参数量达到1750亿。运行这样一个模型,大约需要30000块A100芯片[5]。然而,光是由8颗A100组成的服务器,最大功耗就有6500W——这显然不是智能手机可以触碰的领域。为大模型提供算力的数据中心规模第二座大山叫内存。模型越大,参数越多,运行时需要存储的数据也越多,因此内存大小决定模型上限。Meta所推出的Llama,是当前主流的开源大模型之一,其最小的型号是70亿参数。若想在端侧运行Llama,最低限度也需要至少14GB的内存。而iPhone目前的最高端机型iPhone 15 Pro Max,内存仅为8GB。因此,手机厂商引入个10亿参数级别的模型,都能大吹特吹。然而,遥遥领先了一整年的GPT-4,其参数量有1.8万亿。一些科学家已经断言:GPT-4永远不可能在手机端侧运行。当然,大模型不必非得上端,也可以将手机将数据传输至云端,完成计算后再传输回来。ChatGPT与文心一言的App,都是如此。但这又会产生隐私问题:数据在手机上,还是自己的;如果传输到云端,那就不好说了。而第三座大山,是缺少下游应用。当年,iPhone之所以能脱颖而出,除了惊艳的硬件设计之外,也离不开“愤怒的小鸟们”。当下,大模型落地仍在探索阶段,仍未出现真正意义上的杀手级应用。由此可见,未来真正能塑造AI手机的,从来都不是手机厂商。