因为 DeepSeek 对云服务厂商和 AI 应用开发者是利好,就这么简单。
其实如果仔细去看的话,这几天上蹿下跳最厉害的当属模型厂商,特别是 OpenAI 和 Anthropic。OpenAI 指责 DeepSeek 偷 ChatGPT 数据,发布 o3-mini 还要阴阳怪气一下 DeepSeek(图中文字:假如我只有 5 岁,解释什么是 AI 蒸馏):
Anthropic 的创始人 Dario Amodei 干脆破大防,一边极力论证 DeepSeek 没那么先进,一边呼吁美国爸爸一定不能再向中国出口 AI 芯片了,要管制,要限制发展。
Dario Amodei:关于 DeepSeek 与出口管制67 赞同 · 53 评论文章
这两家的问题就在于业务太过单一,长期被云厂商包养,OpenAI 被微软 Azure 包养,Anthropic 被亚马逊 AWS 包养,所以他们想要极力证明自己的价值。
反而 Google 自家的 Gemini,其实没那么慌,毕竟核心业务是搜索;Meta 的 Llama 本身就是开源阵营的,再说核心业务是社交,AI 对他俩都是添头。
那为什么说 DeepSeek 对云服务商和 AI 应用开发者是利好呢?
对于云服务商来说,可以通过引入多模型供应商,避免被单一厂商绑定或议价,客户可根据成本、场景等需求灵活切换模型。
而对于很多企业来说,开源模型比闭源模型更值得信任,但 671B 模型并不是谁都有自建机房的,于是就会选择云服务商的实例部署。更重要的是,DeepSeek 自己的官方服务器承载能力有限(而且一直持续被攻击),这波天大的用户流量自然有人需要接走。
所以微软、亚马逊、NVIDIA 才会不约而同地在自家云服务中上架 DeepSeek。
而在国内,硅基流动和华为云合作,在 DeepSeek 官方配合参与下,推出了基于昇腾云的DeepSeek R1&V3 推理服务:
根据硅基流动介绍:
通过双方联合创新,在自研推理加速引擎加持下,硅基流动团队基于华为云昇腾云服务部署的 DeepSeek 模型可获得持平全球高端 GPU 部署模型的效果。API 价格与 DeepSeek 官方优惠期价格保持一致。
这就是 DeepSeek 开源的魅力,说白了,DeepSeek 自己接不下这么多用户,从一开始也没打算吃独食,中国的、美国的、印度的(没错,印度也干了)、欧洲的甚至非洲的,只要手里有服务器有算力,大家都可以自行部署。
这就好比一个游戏公司,愿意免费开放源码让别人去搭建私服,而且玩家排着队要玩。这会只要能把私服搭起来吸引到用户,就能有收益。
微软、亚马逊、NVIDIA 又不傻,他们可以嘴上谴责一下,但身体却诚实得很。
同时得益的还有下游的应用开发商,他们以更低的成本切换模型 API(如从GPT-4转向DeepSeek-R1),模型厂商的技术护城河被削弱,利润会进一步向应用层转移。
得道多助,当 DeepSeek 愿意将实打实的利润分给上游的云服务商和下游的应用商,夹在中间的其他模型厂商是死是活谁还关心呢,微软、AWS、NVIDIA 巴不得模型商们继续卷出性能更强、价格更低的模型。