• 首页
  • 哔哔
  • 搜索
  • 夜间模式
    ©2024-2026  哔哔老哥 Theme by OneBlog

    哔哔老哥博客

    搜索
    标签
  • 首页>
  • 随记>
  • 正文
  • Google Gemma 4 发布:用 31B 参数干翻 20 倍对手,开源 AI 的格局变了

    2026年04月03日 6 阅读 0 评论 2345 字

    一件事先说清楚

    昨天凌晨,一件在 AI 圈看上去"普通"的事发生了——Google 发布了新一代开源模型 Gemma 4。

    但我想告诉你,这件事一点都不普通。

    上一代 Gemma 3 是 2025 年 3 月发布的。整整一年,国内 DeepSeek、Qwen、GLM、Kimi 已经来来回回刷新了好几轮榜单,Google 在开源赛道几乎快被遗忘。这次它突然杀回来,一口气放出四款模型,而且许可证从自定义协议直接换成了 Apache 2.0——这个动作,意味着任何人都可以拿它商用,不用再担心授权风险。

    这背后传递的信号是:Google 这次,是认真的。


    Gemma 4 到底是什么

    简单说,Gemma 4 是 Google DeepMind 把旗下闭源旗舰 Gemini 3 的核心技术"拆包"放进开源世界的产物。

    这次发布了四个版本,覆盖从手机到工作站的完整场景:

    • E2B / E4B:端侧小模型,专为手机、IoT 等边缘设备设计,支持语音输入,量化后可在手机离线运行
    • 26B A4B(MoE 架构):混合专家模型,激活参数只有约 38 亿,推理速度快,延迟敏感场景的最优选
    • 31B Dense:全参数激活的旗舰版,310 亿参数,256K 上下文,Arena AI 开源排行榜全球第三

    最让人惊讶的是那个榜单成绩:31B 版本排名超过了大量参数量是自己 20 倍的模型,26B MoE 版本排第六,两者只差两到五个百分点的性能,速度却快得多。


    四个核心能力,每一个都值得单独说

    1. 超长上下文

    上一代 Gemma 长上下文一直是短板。这次 31B 和 26B 支持 256K tokens 上下文,小模型也有 128K。长文档分析、多轮对话、复杂代理任务,从此不再是瓶颈。

    2. 真·多模态

    四款模型全部支持图片和视频输入,可以做 OCR、PDF 解析、图表理解、UI 截图分析。小模型额外支持音频输入和语音理解。这种多模态覆盖对本地部署用户来说意义重大——以前这些能力只能调云端 API。

    3. 内置推理模式(Thinking Mode)

    这是本次升级中最值得关注的能力之一:四款模型都内置了可开关的"思考模式"。开启后,模型先做内部推理再输出答案,数学、逻辑、多步骤规划类任务效果大幅提升,和 Gemini 的 Thinking 同源技术。

    4. Agent 原生支持

    原生函数调用和结构化 JSON 输出,直接支持工具调用。Google 同步开源了 Agent Development Kit(ADK),端侧 E4B 也能跑 Agent 工作流。这意味着你可以在一台手机或者本地 GPU 上,跑一个完整的自主智能体。


    许可证的变化,比技术参数更重要

    这一点很少被人放在重要位置说,但对创业者和开发者来说,它可能比所有性能跑分都重要。

    Gemma 1、2、3 用的是 Google 自定义的 Gemma 协议,有诸多限制,社区对此抱怨了整整一年。Gemma 4 直接换成了 Apache 2.0——这是业界公认最友好的开源协议,意味着:

    • 可以商业使用,不需要再向 Google 申请授权
    • 可以修改、集成、再分发
    • 没有使用门槛,中小团队、个人开发者平等获取

    过去开源 AI 的一个隐患是"半开源"——代码开放但协议有坑。这次谷歌用 Apache 2.0 正面回应了这个质疑。


    我怎么看这件事

    开源 AI 的竞争,从来不只是参数量的游戏。

    去年 DeepSeek 横空出世时,真正震动行业的不是它的性能,而是"用更少的资源做到接近顶级"这件事被证明是可行的。Gemma 4 这次做的,是同一件事的另一个版本:用 31B 的参数量,逼近甚至超越数倍于自己体量的模型。

    这背后的核心逻辑,古人早就说过——"道之以政,齐之以刑,民免而无耻;道之以德,齐之以礼,有耻且格。"放在今天的 AI 赛道,大力出奇迹的时代已经过去,真正的竞争力来自架构智慧和工程效率。

    对普通创业者、独立开发者来说,Gemma 4 最大的实际意义是:本地可以跑的模型越来越强,数据隐私、推理成本、部署门槛这三座大山正在被同时推倒。

    如果你在用 RTX 4060 Ti 一类的消费级显卡做本地部署,或者在探索 AI 工具私有化的可能性,Gemma 4 的 26B MoE 或量化后的 31B 版本,现在是认真值得测试的选项。


    在哪里用

    • 在线体验:Google AI Studio(31B、26B MoE 直接调用,免费)
    • 端侧小模型:Google AI Edge Gallery App(E4B、E2B)
    • 下载权重:Hugging Face / Kaggle / Ollama
    • 本地一键运行:ollama run gemma4
    • 推理框架支持:vLLM、llama.cpp、MLX、NVIDIA NIM、LM Studio、Unsloth 等首日全部支持

    开源 AI 的格局,今天又往前走了一步。

    有时候真正的技术突破,不是让模型更大,而是让它在你的手上真正可用。

    本文著作权归作者 [ aikksong ] 享有,未经作者书面授权,禁止转载,封面图片来源于 [ 互联网 ] ,本文仅供个人学习、研究和欣赏使用。如有异议,请联系博主及时处理。
    取消回复

    发表留言
    回复

    首页哔哔
    Copyright©2024-2026  All Rights Reserved.  Load:0.014 s
    Theme by OneBlog V3.6.5
    夜间模式

    开源不易,请尊重作者版权,保留基本的版权信息。