• 微信

DeepSeek公开EP组件代码及利润率,日收入达562027美元,成本利润率高达545%

时间:2025-03-05 22:01作者:admin分类:大千世界浏览:199评论:0

3 月 1 日,连续五天开源日过后,DeepSeek 又有了一个“One More Thing”。它扔下了一枚“核弹”,即分享了其基础设施中极为关键的 EP(多专家并行)组件代码,并且首次公开了它的利润率。根据 DeepSeek 公开的信息进行计算,理论上它一天的总收入是 562027 美元,成本利润率达到了 545%。

DeepSeek公开EP组件代码及利润率,日收入达562027美元,成本利润率高达545%

DeepSeek 对“盈利能力”做出了最直接的一次回应。DeepSeek R1 成为现象级话题后,对其模型能力的质疑逐渐消失,然而对于它的高性价比、模型背后的成本以及由此引发的“烧钱”问题,仍有不少质疑。有硅谷从业者表示,此次公布的数据会让英伟达们再次彻夜难眠,促使从业者开始新的反思。

在国内 AI 领域,这次重要的开源所带来的影响是以另一种形式呈现出来的,且这种形式更为剧烈。它引发了一场发生在两家中国 AI Infra 公司之间的“血案”。

尤洋与袁进辉的争论

事件的两个主角分别是:一方为尤洋以及他创办的潞晨科技;另一方为袁进辉以及他创立的硅基流动。

DeepSeek 的这篇技术分享在知乎发布之后,有不少用户开始@尤洋,要求他进行点评。这是由于在之前 DeepSeek 被各家服务商争相部署的热潮当中,他是最为积极的反对声音之一。尤洋此前在社交平台上对部署 DeepSeek 的成本与收益进行了计算,之后得出结论,那些部署 DeepSeek 并提供服务的 AI Infra 公司都处于亏损状态,而且是“每月亏损四亿”。

他提及:在短期内,中国的 MaaS(模型即服务)模式或许是最为糟糕的商业模式。各大厂之间相互进行低价和免费的竞争。满血版 DeepSeek R1 每百万 token(输出)仅仅收取 16 元。如果每日输出 1000 亿 token,基于 DeepSeek 的服务,其每月的机器成本为 4.5 亿元,会亏损 4 亿元;而使用 AMD 芯片时,月收入是 4500 万元,月机器成本是 2.7 亿元,这也就意味着亏损也超过 2 亿元。

此次 DeepSeek 的开源周并非是为了回应某一个具体的质疑。然而,它所公布的利润率非常高,这与某个计算结果完全相反。人们最先想到的是尤洋。四个小时后,尤洋发文进行了回应,称 DeepSeek 官方的这一计算方法不能用于 MaaS 的盈亏评估。在他的论述中,延续了“基于大模型的 Mass 服务不赚钱”的立场。

他的潞晨科技紧接着宣布,一周后将会停供 DeepSeek API。

另一家 AI Infra 公司硅基流动的创始人袁进辉在讨论中被许多人提及。DeepSeek 春节期间彻底出圈走红后,硅基流动是国内首批行动起来提供部署服务,承接 DeepSeek 带来需求的公司之一。这家公司的流量很大,这使得它不仅正式出圈,还在过程中引发了一些争议。其中包括它之前提供的推荐“反佣”式优惠被快速薅羊毛,以及收费服务与免费服务的调整等。但本质上,袁进辉和硅基流动认为,快速跟进并提供 DeepSeek 的 MaaS 服务是此刻最正确的决策。

因此尤洋当初的批评指向了这家同行公司。在那时,袁进辉与尤洋已经有过一次“交锋”。袁进辉认为亏损 4 亿的计算方法有误,原因是使用了错误的架构来进行估计。而尤洋直接回应道:“弄 400 台机器,看看每天能否输出 1000 亿满血 DeepSeek R1 token,让我看看。”

这次 DeepSeek 官方直接让人们看到了这是可行的。袁进辉在 DeepSeek 文章发布一小时后迅速评论说,“又颠覆了很多人的认知”。他觉得“很多供应商做不到这个水平”,并且认为“MaaS 能否成功,关键在于技术实力和用户基础”。

“谁做不到,谁就是技不如人”的含义,尽在不言中。

紧接着开始了更具戏剧性的隔空对决。尤洋接着直接发布了一篇文章,这篇文章是直接批评硅基流动这家公司的。《坑人的硅基流动》(现已删除)这篇文章把炮火从技术争论转移到了直接对对方的攻击上。此时,话题的核心也从 DeepSeek 的利润,转变为了两家公司之间的恩怨情仇。袁进辉在第一时间作出了回应。他一方面着重阐述了硅基流动一系列动作背后的思路。另一方面,他直接爆出了“潞晨代码抄袭”的旧案。然而,这两个看起来都有些冲动的争论,后来都被删除了。

这些争论在知乎等技术人员聚集的平台上引发了广泛的讨论,并且讨论得以延展。AI Infra 公司自己变成了行业热议话题的主角,这是很难得的。

到底谁算的对?

在这场争论里,第一个核心议题是到底该怎样进行计算。同时,由不同的计算方法所得出的 AI Infra 是否属于巨亏的生意,这也是一个核心议题。

上周连续五天,DeepSeek 发布了五项核心技术。这些技术涵盖了计算优化、通信加速和存储架构等领域。几乎把自己的核心 AI Infra 技术全都公布了出来。大幅提升了大模型训推的硬件效率。在 DeepSeek 的《DeepSeek-V3/R1 推理系统概览》这篇文章中,进一步揭示了这些技术以及部分是怎样组装并联系在一起的,就如同一个串联式的总结内容。DeepSeek 采用了大规模跨节点专家并行(EP)的方式,并且通过一系列的技术策略,将大模型推理系统进行了最大程度的优化,从而实现了令人惊叹的性能和效率。

在文章末尾,DeepSeek 以理论成本和利润计算作为结束,为这次以开源降本为核心目的的开源周画上了圆满的句号。假定 GPU 租赁成本为 2 美元/小时,那么总成本为 87072 美元/天;若所有 tokens 全部按照 DeepSeek R1 的定价计算,理论上一天的总收入为 562027 美元/天,成本利润率为 545%。

其中,DeepSeek的计算方式如下:

这里DeepSeek说的很清楚:

成本只核算了租用等量 GPU 的费用,而硬盘、存储、内存 CPU 以及人力运维都未被计算在内。

收入将 APP、网页、API 消耗的所有 Token 加在了一起,这里的 Token 包括 to C 和 to B 的总消耗量,并且是将它们全部加起来的。这些消耗的 Token 均按照 API(to B)的价格来计算,从理论上来说,一天的成本利润率是 545%。

事实上,这是一个典型的量化风格的“最大可能性”推算。我们知晓,DeepSeek 的 APP 和网页是完全免费的,并且不能保证有流畅的用户体验。然而,倘若 DeepSeek 按照 API 的价格向用户收费,其收入潜力能够达到上述金额。

也就是说,DeepSeek 计算的是:我作为一个大模型厂商,我如果想要的话,我是能够赚到这么多钱的。

从这个角度去看的话,后来尤洋觉得“这篇文章中的数据对计算 MaaS 成本没有任何参考价值”,这是有一定道理的。

MaaS 是典型的企业服务,企业的首要追求并非性能而是稳定。为了确保稳定性,云厂商的特点在于弹性伸缩且按需取用,所以必须准备足够大的冗余。

DeepSeek 计算的是过往的账目。MaaS 平台若要确保未来的稳定,尤洋给出了预备比例,即必须始终有 5 倍的机器专门用于满足客户需求。在此情况下,我们需要考虑一旦部署的集群过大,以及使用效率、运费、用电成本会呈指数级上升。

如今各家 MaaS 平台用户使用数量稀少,无法做到削峰填谷以实现资源高效利用。在这种前提下,MaaS 厂商很有可能会亏本。

总结一下,从理论角度来看(在非常理想化的情况下,即一人吃饱全家不饿的前提下),DeepSeek 的利润率是可以达到的。然而,考虑到实际的使用情况以及大规模之后所需要的优化成本,就很有可能会出现亏钱的情况。

那么问题又出现了,为何部署 DeepSeek 会亏本呢?而 DeepSeek 自身的推理却能够赚钱?

袁进辉的回复中藏着这个问题的答案。现在很多供应商达不到这个水平,原因主要是 V3/R1 架构与其他主流模型的差别很大。MaaS 厂商需要依据 DeepSeek 的报告进行调整,这样才能达到最好的效率。

这里有一个前提,过去的云厂商所构建的 IaaS 层是以 CPU 为核心的服务器集群。而高效的推理需要依靠 GPU 来完成并行计算。原本的 MaaS 用于此情况问题不大,但 R1/V3 所采用的稀疏架构,对于云而言是一个全新的挑战,需要进行特别调试以实现适配。

MaaS 厂商们对 DeepSeek 模型架构的复杂性估计不足,他们采用老一套的方式来支持新模型,显然遭遇了性能不足所带来的痛苦。大模型一体机能够直接改造至硬件层,还能依据 DeepSeek 专门定制型号,所以其性能和稳定性比 MaaS 提供的模型要高。近期,硅基流动与华为昆仑展开合作,推出了 DeepSeek 一体机,以尝试解决推理性能不足的问题。

但 DeepSeek 对自己的模型架构很了解,进行了软件算法层的优化调整,还将算力压缩到了优化芯片层,目的是把每一滴性能都充分发挥出来。

在刚刚过去的开源周里是很幸运的。DeepSeek 开源了 5 个关于如何提高推理效率的模块。理论上来说,只要按照这些模块去做,接下来其他 MaaS 厂商就能够将其复现出来。

所以,AI Infra公司们的未来在哪里?

这些争论背后,AI Infra 公司再度引起大众的关注。它们是提供底层基础设施服务的公司,之前从未成为外界关注的重点。然而,在 DeepSeek 出现之后,由于海量需求无法由 DeepSeek 自身满足,AI Infra 公司获得了一次直接面向海量广泛用户的机会,从而开始受到广泛关注并出圈。

但 DeepSeek 在其自身 AI Infra 研究方面持续开源,很多人察觉到,独立的 AI Infra 公司仿佛又遭遇到了极为严重的“存在感危机”。

当 DeepSeek 造出最强的模型且拥有最强的基础设施技术时,它仿佛变成了新的规则制定者。如果独立公司想提供部署 DeepSeek 模型的 AI Infra 生意,就需使用 DeepSeek 的技术方案,既要卷到极致以快速复现 DeepSeek 做出的东西,又要在此基础上做些 DeepSeek 不做的事,如帮助开发者、帮助企业一对一做落地服务等,从而承载它服务不到或未重点服务的用户,尽可能做大用户规模以摊薄成本,让自身利润率无限接近 DeepSeek 官方算出的天花板比例,这样才有可能“存活”下去。

这种“DeepSeek 吃肉,其他大家去比赛谁能成为喝到最多汤的那个”的格局是否会是 AI Infra 的未来呢?这或许才是这场争论背后对行业真正具有重要性的话题。

袁进辉针对此话题向硅星人作出了回复。他觉得这样的未来是否会出现,其中一个关键的变量是开源。他表示,如果模型被一家独大,并且模型厂商还想获取这块蛋糕,那么其他各方确实会有压力。尤其是当模型是闭源的时候,就如同 OpenAI 这样,这种压力会更加明显。

但模型开源之后,需要看外界是否有机会让 infra 或者芯片的能力超过模型厂。

一个变量是这个剧烈变革的技术周期本身。它使得曾经分工较为明晰的不同技术角色的公司,其竞争界限变得模糊。从 DeepSeek 的部署热潮中可以体会到:AI Infra 公司、模型公司以及芯片公司,都参与其中,提供相似的服务,抢夺相同的市场。

今天的模型是半成品,芯片也是半成品,infra 同样是半成品。它们彼此之间的关系既存在合作,又存在竞争。最终,大家都要去角逐类似于 cloud 的位置。袁进辉对硅星人这样说道。

在这场竞争中,AI Infra 并非最具优势的。然而,它实际上获得了一次前所未有的机会,从一个不太被关注的角落最终成为了焦点。在当下这个节点,是押上“身家性命”以及对自身技术工程能力的信心去赌未来“下一代云”的机会,还是不这样做,这将成为区分这些公司的关键决定。

硅星人向尤洋提出了关于 AI Infra 的未来走向方面的问题。尤洋回复说,目前暂不接受访谈。

文章评论

猜你喜欢