Sarvam 105B:印度交出了第一份有竞争力的开源大模型答卷
当我们谈论开源大模型,脑子里跳出来的名字通常是 Meta 的 Llama、Mistral、DeepSeek。这些模型有一个共同点:它们主要服务英文或中文用户。
这周 Sarvam AI 开源了 Sarvam 30B 和 105B 两个模型,HN 上拿到了 165 分,讨论相当热闹。它的核心卖点不是在英文 benchmark 上刷到 SOTA —— 而是这可能是第一个在印度语言上真正有竞争力的开源大模型。
为什么这件事值得关注
印度有 22 种官方语言,超过 14 亿人口。但在大模型领域,印度语言(Hindi、Tamil、Bengali 等)长期处于二等公民地位。主流模型把印度语言当作”也支持”的附属品,而不是一等公民。
Sarvam 的策略不同。他们从一开始就把印度语言放在训练的核心位置。这不是在英文模型上做微调,而是在数据配比、tokenizer 设计、评估基准上都做了针对性的工程。
这让我想到一个更大的趋势:大模型的本地化不只是翻译问题,是工程问题。
开源模型的”区域化”趋势
过去两年,我们看到了一个清晰的脉络:
- DeepSeek 证明了中国团队可以做出世界级的开源模型
- Mistral 证明了欧洲也能参与这场竞争
- 现在 Sarvam 开始补上南亚这块拼图
每个区域的模型都不只是”换一种语言”这么简单。中文模型需要理解成语、文言文、中文互联网的表达习惯;印度模型需要处理多语言混用(code-mixing)、不同脚本系统之间的切换。
这些都是纯靠规模堆不出来的能力,需要有本地化的数据工程和评估体系。
105B 参数意味着什么
105B 这个体量放在 2026 年已经不算大了。但对于开源模型来说,这个量级有一个实际意义:它大到足以在专业任务上有用,又没大到只有大厂才能跑得起来。
配合量化和推理优化,105B 模型在单卡 A100 或者多卡消费级 GPU 上是可以跑起来的。这意味着印度的创业公司、高校、独立开发者都能在本地部署一个真正理解自己语言的模型。
对于一个有大量技术人才但云计算成本敏感的市场来说,这个门槛很关键。
冷静看待
几个需要注意的点:
第一,benchmark 需要验证。 自己出的评测结果参考价值有限。等 LMSYS 或者第三方独立评测出来再下结论。
第二,模型只是起点。 印度市场真正缺的不是一个模型,而是围绕这个模型的工具链、应用层和开发者生态。光有模型权重,没有好用的 API、没有 fine-tuning 工具、没有落地的应用场景,再好的模型也只是 GitHub 上的 star 数。
第三,资金可持续性。 Sarvam 拿到了不少融资,但开源大模型是个烧钱的游戏。训练一次 105B 的成本不低,持续迭代需要持续投入。
对开发者的启示
大模型世界正在从”一个模型打天下”走向”每个场景有最优解”。英文用 Claude、中文用 DeepSeek、印度语言用 Sarvam —— 这个趋势对开发者来说意味着模型选择变成了一项核心技能。
不同任务选不同模型,像 OfoxAI(ofox.ai)这样的多模型聚合平台让这种切换成本几乎为零,一个入口试遍主流模型,自己判断哪个最适合。
全球化的开源生态正在变得更丰富,也更分裂。作为开发者,保持好奇心,关注非英文世界的技术进展。下一个 breakthrough 未必来自硅谷。
