{{!completeInfo?'请完善个人信息':''}}
谷歌发布Gemma 4开源大模型,采用Apache 2.0协议并适配安卓端侧,为出海APP提供高性能离线AI引擎,引发中美AI厂商新一轮技术博弈。
摘要
谷歌DeepMind正式推出Gemma 4开源大模型家族,标志着AI技术正式从云端向端侧(On‑device)大规模迁移。Gemma 4凭借Apache 2.0极宽松协议及针对安卓设备的芯片级优化,成为出海开发者构建离线AI功能的核心引擎。该模型涵盖从手机到工作站的完整矩阵,特别是E2B端侧模型可在普通安卓机上实现完全离线运行,极大降低了出海APP的数据隐私合规成本与算力门槛。面对国内厂商的竞争压力,Gemma 4的发布不仅是谷歌在开源生态的背水一战,更为全球30亿安卓设备带来了媲美旗舰机的AI体验。
Gemma 4拿出了谷歌压箱底的技术
4月2日凌晨,谷歌DeepMind CEO Demis Hassabis在社交平台X上发了四颗钻石的emoji,几个小时后,谜底揭晓,谷歌正式发布了旗下最新开源大模型家族Gemma 4,这是谷歌入局开源AI赛道两年多来,拿出的最有诚意、也最具杀伤力的作品。
Gemma 4不是单一模型,而是一套覆盖手机到工作站全场景的完整产品矩阵,四个版本各有明确的定位,彻底打破了“性能强就必须体积大、门槛高”的行业惯性。

最小的E2B和E4B两款端侧模型,名字里的“E”代表“有效参数”,通过谷歌自研的每层嵌入(PLE)技术,把模型“干活的核心算力”和“辅助的记忆存储”模块做了拆分,让它在运行时只调用最少的资源。
其中E2B总参数51亿,运行时有效参数仅23亿,极端情况下内存占用能压到1.5GB以下,普通安卓手机就能完全离线运行,不用联网、不用上传数据,还原生支持图片、语音输入,相当于把一个具备基础推理能力的AI助手,完整塞进了用户的口袋里。
E4B则在性能和功耗之间做了平衡,45亿有效参数就能跑出接近上一代Gemma 3 27B旗舰模型的效果,是端侧设备的主力版本。
而作为旗舰的31B Dense版本,更是直接刷新了开源模型的参数效率上限,310亿全激活参数,未量化的原版权重一张80GB H100就能装下,量化后普通消费级显卡也能流畅运行,却在业界公认的Arena AI开源模型排行榜上冲到了全球第三,用不到十分之一的参数量,就能和参数量400亿级别的巨无霸模型掰手腕。
和上一代产品相比,它的提升是代际级别的:AIME 2026数学竞赛测试准确率从20.8%暴涨到89.2%,翻了四倍多;LiveCodeBench代码测试得分从29.1%涨到80%,同时还补上了之前的短板,长上下文窗口拉到256K,能一次性处理几十万字的完整文档,原生支持140多种语言,多模态理解能力也实现了翻倍提升。

而最让全球开发者惊喜的,从来都不只是性能,而是谷歌终于放下了姿态,把Gemma 4的开源协议换成了行业最宽松、最受认可的Apache 2.0。在此之前,Gemma前三代产品用的都是谷歌自定义的开源协议,不仅有诸多商用限制,谷歌还能单方面修改规则,甚至有条款被解读为“用Gemma生成的数据训练新模型,新模型也要受该协议约束”,让很多开发者和企业不敢放心商用,怕埋下法律风险。
这次的Apache 2.0协议,没有任何商用门槛,没有用户量限制,开发者可以自由下载、修改、分发、二次开发,甚至修改后换成自己的品牌商用,谷歌都不会干预,Hugging Face联合创始人Clément Delangue直接评价,这是开源AI领域的一个重大里程碑。
迟来的背水一战:Gemma 4要改写的是整个AI行业的格局
Gemma 4的发布,是谷歌在全球AI开源赛道的一次全面反攻,背后是整个AI行业格局的深刻重构。
过去两年,开源大模型的战场已经彻底换了天地。最初Meta凭借Llama系列的先发优势和宽松协议,一家独大拿下了开源市场的大部分份额,但从2025年开始,国内AI厂商在开源赛道全面发力,通义千问、DeepSeek、智谱AI、月之暗面等厂商密集迭代,用更快的更新速度、更强的性能、更友好的开源协议,快速抢占市场,全球开源模型排行榜的前排位置,长期被国内厂商包揽,美国厂商在开源赛道的存在感越来越弱,就连英伟达都下场推出了自己的Nemotron开源系列,试图守住生态话语权。
而谷歌此前的Gemma系列,虽然背靠Gemini的技术积累,累计下载量突破4亿次,社区衍生出超过10万个变体,但因为协议保守、更新节奏慢,在实际商用部署中的份额,远远落后于Llama和国内的主流开源模型,在开源赛道逐渐被边缘化。
这次Gemma 4的发布,本质上是谷歌的一次“背水一战”,它直接把闭源旗舰Gemini 3的底层技术架构完整下放,官方明确表示Gemma 4与Gemini 3共享同一套世界级的研究成果和技术体系,相当于把之前只有付费API才能用到的能力,免费开源给了所有开发者,再配合Apache 2.0协议,目的就是用最大的诚意,抢回开源市场的开发者生态。
而谷歌这记毫无保留的重拳砸向开源市场,国内AI圈里被问得最多的一句话就是:DeepSeek是否在伺机而动了?
所有人都盯着DeepSeek的反应,本质上是因为它是当下国内开源赛道里,唯一能和Gemma 4正面硬碰硬的选手。

过去一年多里,DeepSeek几乎凭一己之力,改写了全球开源大模型的竞争格局:从DeepSeek V2系列凭借67B MoE模型首次登顶全球开源模型榜单,到后续V3系列用30B全参数模型刷新参数效率纪录,再到端侧1.5B、7B模型把离线AI的门槛压到百元级开发板都能跑,它始终走的是和这次Gemma 4完全一致的路线——不堆无意义的参数量,死磕参数效率,用更小的体积、更低的算力门槛,实现对标旗舰大模型的能力。
甚至在代码、数学推理这两个硬核赛道上,DeepSeek此前的迭代版本,长期压着上一代Gemma系列打,在LiveCodeBench、AIME数学竞赛等核心测试集上,多次用更小的参数量实现了反超。更关键的是,DeepSeek从初代产品开始,就一直采用最宽松的MIT开源协议,商用无门槛、无限制,企业可以自由修改、分发甚至二次封装商用,这也是它能快速拿下国内开发者市场,甚至在海外市场都能和Llama分庭抗礼的核心原因——谷歌这次用协议放开打的牌,DeepSeek从一开始就已经打透了。
凤凰网科技此前从行业人士处了解到,DeepSeek从不被外界节奏影响,只专注于自身,“模型做好了自然会发”。
而熟悉DeepSeek迭代节奏的开发者都清楚,这家厂商也不走“小步快跑、频繁修修补补”的路线,而是每一次更新都直击行业痛点,试图拿出代际级的技术突破。
从2025年至今,DeepSeek的大版本更新间隔基本稳定在2-3个月,每一次新版本发布,都能直接刷新当时的开源模型性能榜单,甚至多次倒逼海外厂商调整产品节奏。更关键的是,多家科技媒体早在3月就已爆料,DeepSeek V4版本已经进入灰度测试阶段,定档2026年4月正式发布。
不过对谷歌来说,开源生态的重要性远不止于模型本身,它背后是云服务、芯片、移动生态的完整闭环。此前谷歌云在AI时代的增长,一直落后于亚马逊AWS和微软Azure,核心短板之一就是没有形成自己的开源开发者生态,开发者不用你的模型,自然不会优先选择你的云服务来部署、你的芯片来训练。而Gemma 4的出现,就是谷歌给开发者递出的一张“无门槛入场券”,用免费的顶级模型,带动自家云服务和TPU芯片的增长。
更关键的是,Gemma 4踩中了AI行业下一个核心战场端侧AI。其他厂商或许还在云端卷大模型的参数和性能,谷歌正在把目光投向全球30多亿台安卓设备。这次Gemma 4的端侧模型,直接和Pixel团队、高通、联发科做了芯片级的深度优化,和安卓系统的AICore能力原生打通,开发者只需要写一次代码,就能在所有支持的安卓设备上实现离线运行。
Gemma 4的发布,相当于给所有安卓设备预装了一个免费、顶级的本地AI引擎,直接和苹果iOS的端侧AI能力形成正面抗衡,未来安卓手机的AI体验,很可能会迎来一次全面的升级。
当然,Gemma 4不是开源AI战争的终点,而是新一轮竞争的开始。谷歌用一次彻底的“放权”,重新回到了开源赛道的第一梯队,而国内的厂商也不会停下迭代的脚步,未来的开源市场,只会在性能、效率、易用性上越来越卷。
原文链接:点击前往 >
文章作者:凤凰网科技
版权申明:文章来源于凤凰网科技。该文观点仅代表作者本人,扬帆出海平台仅提供信息存储空间服务,不代表扬帆出海官方立场。因本文所引起的纠纷和损失扬帆出海均不承担侵权行为的连带责任,如若转载请联系原文作者。 更多资讯关注扬帆出海官网:https://www.yfchuhai.com/
{{likeNum}}
好文章,需要你的鼓励
已关注
关注