DeepSeek V4炸场背后:有人在内斗,有人在接力

2026-04-26 4 0

国外苹果ID 🔒点击进入购买✅ 海外各种账号

作者:后厂村

编辑:提莫队长

当硅谷闭源阵营陷入“博弈”的内斗泥沼,中国大模型正在用另一种方式撕开缺口。

4月24日,期待已久的DeepSeek-V4预览版正式发布并同步开源,DeepSeek-V4分为Pro与Flash两个版本,均支持百万(1M)token超长上下文。同样在这周,Kimi不约而同地发布了最新模型K2.6,把Agent能力从“单点调用”升级为“集群协同”。

image.png

一周诞生了两个万亿参数的开源模型,不仅让全球开源领域的目光集体聚焦中国,更悄然勾勒出中美AI赛道截然不同的发展底色——当美国AI头部企业陷入愈演愈烈的内斗,而中国的开源AI似乎已经跑通了一条协同进化的道路。

01

同周开源,分工明确互不内卷

就在DeepSeek V4引发风暴的同一周,月之暗面发布Kimi K2.6并开源,提升了Agent集群能力:支持300个Agent并行,可自主拆解和完成长周期的复杂工程任务。这与DeepSeek形成了鲜明的路线互补。

DeepSeek主攻“深度推理、长文本理解、算力效率”,Kimi猛攻“多Agent集群、长周期任务执行、复杂工程落地”,两条路径各自跑通闭环,共同扩大了中国开源模型的全球辐射范围。

但是,两家AI公司的这种“默契”真的是巧合吗?

真正的细节藏在技术报告里。

最典型的就是两个关键技术的互相引用。

DeepSeek V3提出的MLA(多头潜在注意力)技术,是它最核心的架构创新之一,能通过压缩KV缓存,大幅降低大模型的推理成本——要知道,推理成本是大模型落地的最大门槛之一,MLA技术直接让DeepSeek的推理效率提升一个档次。而Kimi在K2系列模型中,选择沿用MLA架构,靠着这项技术,成功压缩了KV缓存体积,为Agent能力的落地扫清了障碍。

反过来,Kimi率先大规模验证的Muon优化器,解决了万亿参数大模型训练不稳定、效率低的行业难题——实现了“同等训练量下效率翻倍”,相当于把50万亿token用出了100万亿的效果。而DeepSeek V4的技术报告里,直接把Muon优化器写进了训练方案。

简单说,DeepSeek的MLA帮Kimi降低了推理成本;Kimi的Muon帮DeepSeek降低了训练成本。

你用我的架构,我用你的优化器。没有纠纷,不用授权。这就是中国开源AI的独有的正向循环模式——与硅谷企业将技术视为护城河的理念不同,在这两家公司身上,以开源的态度协同共进的发展模式才是真正的护城河。

02

闭源必内斗

说到这里,就不得不提OpenAI和Anthropic的斗争史了。

早从ChatGPT诞生开始,OpenAI和Anthropic就注定是“死对头”——Anthropic的核心团队大多来自OpenAI,因为理念不合出走后,直接对标OpenAI做闭源模型,双方在技术、人才、资本上展开全方位竞争。

从2023年到2026年,Anthropic的ARR几乎每年都在以10倍的速度增长,步步紧逼OpenAI;到了2026年4月,据传Anthropic公布的300亿美元年化收入体量已反超OpenAI。OpenAI靠微软的资金和算力垄断高端市场,Anthropic则靠谷歌的投资夹缝求生,两者之间没有任何技术共享,反而互相封锁、互相拆台,甚至不惜通过诉讼争夺技术专利。

在这种“双雄打擂台”的态势下,OpenAI近期甚至被曝出内部备忘录,明确将对方锁定为直接竞争对手,严防死守。

为什么会这样?核心就是闭源路线的本质——技术是“护城河”,是赚钱的工具,一旦共享,就会失去竞争优势。闭源模型的盈利模式,决定了它们必须是“绝对竞争”的关系,蛋糕就这么大,你多吃一口,我就少吃一口,根本没有互助共赢的可能。

然而,中国AI军团面临的宏观环境截然不同。在算力受限、高端芯片被海外“卡脖子”的底色下,中国企业若继续内耗,无异于自绝前路。

因此,DeepSeek和Kimi果断选择了拥抱开源——把蛋糕做大、合力突围。

在这个AI从“训练为王”转向“推理决胜”的年代,中国AI选择的路线极具战略远见:用顶尖的开源模型击穿闭源厂商的高昂定价权,通过近乎同水平的智能表现与大打折扣的价格,迅速占领全球开发者市场。

03

“兄弟”殊途同归

更值得欣慰的是,这对中国双子星,不仅在技术上互相成就,在突破国产芯片封锁这件事上,也各自发力、殊途同归,为中国AI的自主可控铺平了道路。

DeepSeek走的是“工程适配”路线,V4首发适配华为昇腾芯片,工程团队硬生生把整个技术栈从CUDA迁移到华为CANN框架,从算子库、通信原语到内存管理,几乎每一层都重新实现,还完成了寒武纪芯片的Day 0适配,代码全部开源,用实际行动证明:国产芯片也能跑万亿参数的旗舰大模型。

连英伟达CEO黄仁勋都曾坦言,“如果DeepSeek先在华为平台发布,对我们来说非常可怕”,如今这句话已然成真。

Kimi则走的是“架构创新”路线,为了适配国产芯片,它掏出了“杀手锏”:一是Kimi Linear混合注意力架构,把线性注意力和全注意力以3:1的比例混合,在长上下文推理中,解码速度提升最高达6倍,KV缓存减少75%。让RDMA高速网络从“必选项”变成“可选项”。

二是PrFaaS技术,把推理的预填充和解码阶段彻底解耦,调度到不同的国产异构硬件上,让算力强的国产卡做预填充,带宽强的国产卡做解码,相比传统同构PD部署,实测吞吐量提升54%,P90延迟降低64%,彻底打破了“大模型推理必须绑定高端GPU”的魔咒。

一个从工程层面验证国产芯片的承载能力,一个从架构层面优化国产芯片的运行效率,可以说,两家公司在用不同的方式,共同推动“中国芯片+中国模型”的生态落地,让英伟达不再是中国AI的唯一选择。

04

总结:

当DeepSeek在V4公告中写下“从现在开始,1M上下文将是标配”,当Kimi在K2.6的测试中让智能体自主连续运行了整整五天,中国AI已经悄然越过了以参数论英雄的蛮荒期。

这不仅意味着中国企业在复杂的全球AI棋局中,找到了绕过算力封锁的解题钥匙,更深远的意义在于,随着国产算力的大规模放量以及中国开源大模型在全球占比份额的迅速攀升,一种崭新的世界AI多极化格局已见雏形。当一个行业的壁垒从封锁变成效率,从闭源的神秘变成开源的普惠,真正的风暴才刚刚开始。

相关文章

奕境汽车总经理曾清林:计划未来两到三年推出近5款产品
超算互联网推出DeepSeek-V4限时免费对话服务
小米:捏造散布涉小米及雷军谣言的李某华,被行政拘留
光模块产能持续释放 薄膜铌酸锂或成下一代高速光信号主流调制材料
岚图汽车卢放分享新规划:将升级纯电战略,加速走向全球右舵市场
三星内存铁面无私,三星手机被迫亏损

发布评论