互联网大厂算力荒 智算中心却在卖卡求生

内容摘要“能流畅跑70B模型的国产GPU有推荐的吗?”在一个算力交流群里,一位从业者问。不少回复打趣道:“48GB显存的4090。”48GB显存的4090显卡并非英伟达推出的官方版本,而是国内特有的魔改版,专为满足推理算力需求。该版本在市场上大量流

“能流畅跑70B模型的国产GPU有推荐的吗?”在一个算力交流群里,一位从业者问。不少回复打趣道:“48GB显存的4090。”

48GB显存的4090显卡并非英伟达推出的官方版本,而是国内特有的魔改版,专为满足推理算力需求。该版本在市场上大量流通,价格近乎翻倍,目前在京东商城里,其售价在2-4万元不等。

算力资源信息共享平台柏林云负责人说:“虽然现在购买4090的价格翻了快一倍,但租赁供给比较充足,租金并没有涨。”

与出租算力3-5年才能回本的周期相比,直接卖卡赚取翻倍利润,让囤有4090的智算中心抓住“救命稻草”。了解智算中心更多“自救”手段,欢迎添加作者微信YONGGANLL6662交流探讨。

“4090没有二手市场这个说法,市场上一些有卡的智算中心会把卡拆下来,翻新后再拿去当新卡卖掉,赚取成倍的利润,不然4090停产这么久了,卡从哪里来?”智算中心运营商张翔说,“国内的4090主要是消费级风扇卡,用在智算中心要先改成涡轮卡,涡轮卡集中冷却效果较风扇卡更为明显,所以智算中心流出来的卡大多经过改装。”

拆卖显卡的另一个重要原因在于,智算中心算力闲置情况严峻。

评估智算中心的算力使用情况,上架率和点亮率是两个关键指标。上架率关注的是设备是否安装上架并通电可运行,而点亮率关注的是设备是否在实际执行计算任务,为业务所用。

软通动力首席人工智能官金亚东告诉雷峰网:“智算中心上架率不足70%-75%,没办法盈利,而现在说智算中心点亮率20%,实际情况可能比这更糟糕。”

面对大量闲置算力与回本难题,“卖卡回血”成了业内公开的秘密。

算力供给“无人问津”的另一面,是算力消纳方“算力荒”。

一头部互联网大厂许多业务部门的算力需求都排不上号,特别是其大模型产品接入DeepSeek之后,集团响应各个业务部门算力需求的速度便慢了很多,甚至连明星AI应用都排不到算力。

“百度算力也不够用,文心、云和大搜索几个部门都在抢。”曾在百度负责AI应用开发的李杰说,“算力就像粮食一样,各个部门都在抢,就怕哪天突然闹饥荒。”

供需错配之下,智算产业乱象丛生。

智算中心销售李海说:“市场上出现了一类被称为‘算力媛’的人,主打信息差获利,了解买方的需求再匹配合适的卖方,撮合一个几亿的项目就能从中赚几千万。”

智算中心数量过剩,而算力消纳方高度集中,致使消纳方得以向智算中心提出极为苛刻的合作条件。据了解,去年某明星大模型创业公司聊了近30个智算中心,压价之外,还要求智算中心给他们投资,帮其做高估值,最后没有一家签下订单。

卖卡回血、倒卖算力和恶意压价之外,智算中心还面临哪些行业“暗礁”?究竟是哪些因素致使行业生态扭曲?畸形的产业环境之下,智算中心又路在何方?

大厂算力紧缺,智算中心却陷入“压价、退租”寒潮

作为市面上最主要的算力消纳方,大厂“苦算力短缺”已久。

前文提及的两家大厂之外,阿里在全力投入通义千问之后,阿里集团内其它部门的算力也处于紧缺状态。关于更多大厂算力内幕,欢迎添加作者微信YONGGANLL6662互通有无。

于是,头部互联网大厂纷纷加码算力投入,新一轮的算力军备竞赛愈演愈烈。

微信接入DeepSeek后,腾讯向英伟达采购了数十亿元规模的H20芯片。阿里则宣布,未来三年将投入超过3800亿元用于建设云和AI硬件基础设施,投入总额超过过去十年总和。而根据浙商证券的研报数据,2025年字节用于AI算力采购的资本支出或达900亿元。

大厂对算力抢得火热,智算中心的算力却闲置一旁。

据中国信通院报告显示,全国已上线的智算中心,算力的整体利用率仅32%。而不少行业人士告诉雷峰网,实际数据比这更低。

“去年模型厂商到处聊需求,营造出市场很火热的现象,2024年规划出了上千座智算中心,这些算力根本消耗不了。”张翔表示。

当供给无法消纳,需求又难以满足,行业注定偏离正轨,驶入歧途。

大厂和主要的模型厂商虽面临算力短缺的问题,但对算力还是有较高的要求,譬如要求高功率机柜、高密度机柜以及对时间和空间的一些指定需求,大部分智算中心都无法达标,加之算力闲置的情况严峻,让买方在市场里的话语权不断膨胀。

金亚东表示,智算中心市场有明显的金字塔效应,大家都追逐头部厂商的需求。

一旦商业行为被太多不对等的现状裹挟,强势的一方势必将所有利益搜刮殆尽。

据悉,去年某大厂要建一个H800算力集群,最终只有一家上市公司成功交付。原因不仅是大厂要求多,而且贴着智算中心建设方的成本价去出价,条款也很苛刻,导致算力供应方做起来就很难。

张翔透露,很多人做大厂的单子,投资回报率还跑不过银行贷款,完全是鸡肋型的生意。

如果说大厂的订单是让智算中心赚不到钱,那其他大模型公司就是让智算中心做亏本买卖。

“跟国内排得上号的大模型公司合作,他们根本不让你赚钱,就让智算中心自己去拿政府的新能源指标补贴,或者让智算中心赚设备租赁后剩下的残值的钱。”张翔说,“模型公司还会指定智算中心的租赁价格、上下游的合作对象以及设备来源,这非常不符合常理。”

李海表示,某家要做视频模型的大模型公司由于对传输性能要求很高,A100相关系列基本上都用成本相对较低的RoCE组网,但这个客户要求算力中心提供IB(InfiniBand)组网,并且这部分成本还要算力中心承担,IB组网设备成本通常占服务器设备成本的15%-20%,价格非常昂贵。

但即便是苛刻的算力消纳方,在DeepSeek出圈后,也开始退租。一位从业者告诉雷峰网,智算中心开始出现退租的现象,主要是大模型创业公司,因为他们靠融资活着,没有自己造血的能力,市场上几家有名的模型公司都有退租的情况。

李海透露,曾是他们公司重要客户的某六小龙模型公司,近期虽连获多轮融资,合作规模却大幅缩水。

智算中心低上架率背后:供需错配、性能缺陷及地域限制

当行业处在早期泡沫阶段,乱象的出现是必经阶段。智算中心的桎梏,从何而来?

供需结构性错配

“DeepSeek出现之前,设备选型是造成算力闲置的原因之一。”善思开悟人工智能科技公司CEO余溢告诉雷峰网,“国产算力、PCIe接口的H100和H800,由于用于训练性价比较低,应用端需求又尚未起来,造成了较为严重的闲置现象。”

“不过,这些设备可以用来做推理,DeepSeek出现后,算力闲置的现象有所改观。”余溢补充说。

算力资源和需求的错配造成了算力浪费,另一面是对口的算力用不了。

金亚东表示,大部分智算中心的规模都在1000P(1P算力每秒能够进行一千万亿次计算)上下,由非常分散的社会资本和城市资本建设,这些资本的特性是有钱但不懂行业,很难去找到合适的需求方。

而给大厂供算力,更是讲究“天时、地利、人和”。

“很多智算中心都无法满足大厂大规模训练的前置要求,比如高能耗指标、高功率机柜、高密度机柜以及集群的排布。”余溢表示。

硬件性能匹配难度大,让大厂习惯找自己的长期合作伙伴,因为双方磨合久了,算力提供方能更懂大厂的需求,譬如润泽科技就拿了很多字节以及几家头部互联网公司的订单。

因此,第三方公司想要拿到订单就只能抓住大厂算力紧缺的窗口期,就像H20的突然爆火带来的需求。不过,能流向市场的订单都比较紧急,比如要求三个月内算力就必须到位。

有从业者透露,很多拿到大厂订单的厂商会把订单拿到市场上“招标”,自己不持有设备,纯赚差价。

而创业公司是数量很大的长尾客户,这部分公司的需求尚未起来也是算力闲置的重要原因。

“AI应用需求是一个幂指数,现在在底部爬行,到了爆发的节点会上涨很多,AI应用爆发起来还要1-2年的时间。”金亚东说,“目前,AI应用的发展还面临比较多的门槛,包括对技术的认知、成本的考量以及底层大模型能力尚有欠缺。”

找不到、用不起算力,也是目前创业公司面临的普遍问题。

“由于英伟达被禁,解决算力需求比较受制于渠道资源,供需匹配存在困难,所以算力市场有很多二道贩子。”余溢表示。

另外,对很多创业公司而言,还存在用不起算力的现象。李海表示,很多AIGC公司还希望用一年前的预算来购买和租赁现在的设备。

国产算力性能欠缺

供需结构性错配之外,国产算力性能无法匹配市场需求,同样造成算力浪费。

“公司测试了国产芯片的性能,测试工程师反馈‘只适合个人用户玩一下,无法作为产品服务去交付’。”张翔说,“国产芯片部署模型,只要出错过一次,服务器就会挂掉,需要重启服务。”

据了解,不少国产芯片公司为了拿到智算中心的订单,会向智算中心承诺包销算力,并且出资10%-20%去建设智算中心,在明面上,将双方的利益捆绑在一起。

“事实上,关于包销承诺,很多都是无疾而终,不过芯片厂商不兑现承诺,智算中心就不给尾款。”张翔说,“最后的结局就是一地鸡毛,设备放着吃灰。”

目前,国产芯片公司都急于拿到智算中心的订单,原因在于智算中心的大单能给芯片公司做“漂亮账”,能不能用并不重要,重要的是有实际的订单数额。芯片行业资深从业者潘齐透露,有从大厂跳槽到芯片公司负责销售的人,因为拿不到智算中心的订单离职了。

头部的国产AI芯片创业公司都已走到决胜IPO的阶段,产品能力、实际的订单数量以及大集群的建设能力对于谁能胜出,有着重要影响。

焦灼的竞争态势之下,为了拿到智算中心的订单,市场上滋生出许多“非常规操作”。

据悉,包销承诺让智算中心算力闲置的压力压到了芯片公司身上,除了跑路的极端情况外,更体面的做法是花钱雇算力消纳方去使用自己的算力。

“某国产芯片公司被逼得花钱买营收,找到大模型厂商和一些实验室谈合作,花一个亿换回三四千万的营收。”潘齐说。

而自身有算力需求业务板块的公司,则会让自己的业务去消纳算力,向智算中心保证使用率,但撑完6个月的验收期之后,就撤掉业务,导致算力利用率大幅下降。

地域限制为算力消纳戴上枷锁

“大部分东部沿海地区的算力供给会因为夏天电力不足面临挑战,西部地区电力资源丰富,但算力的使用场景不足。”电信研究院一级分析师张小东表示,“以胡焕庸线为界,根据统计的结果,东部地区AI上下游企业超过60万家,西部地区仅1万家左右,但只有30%的智算中心能做跨省的算力调度,算力孤岛的现象很严重。”

此外,一些县级市建设的算力中心,主要目的是拿到省里的补贴,但县级市一般缺乏可以做后期维护的技术团队,并且当地没有消纳算力的企业,这就造成设备的空置率非常高。不少从业者认为,地方政府应该把算力和应用捆绑起来作为智算中心建设的考核指标。

算力跨区域调度除了物理限制之外,还面临“人为限制”。

一位从业者表示,一些地区的算力补贴会限定只有当地的企业才能享用,这也会造成资源的错配。

而数据的隐私性和安全性,也让算力的跨区域调配面临掣肘。

据了解,大部分机构都会把数据留在自己的手里,所以对智算中心的位置会有要求,此前,互联网大厂有黄金10公里的说法,要求算力部署在自己10公里的范围内,既可以保证数据安全,又能够降低延时。

“数据不可能流动起来,基本还是在当地的智算中心做训练和推理。”一位从业者表示,“东数西算还没有发挥出其价值。”

算力需求将涨10倍,5000万家中小型企业才是算力消纳主力

“泡沫期”是行业大规模发展的必经之路,这意味着资金、人才和技术的涌入,阵痛过后,智算中心将走上正轨。

“全社会对AI技术认可程度不断提高,现在做AI应用机遇巨大,大厂的关注点更多落在平台和生态方面。”余溢说,“创业公司单个客户虽然小,但是数量很多,长尾客户占到80%,会慢慢把闲置的算力填满。”关于AI应用及其对算力市场的影响,欢迎添加作者微信YONGGANLL6662交流讨论。

金亚东则表示,智算中心获益是一个很重要的指标,智算中心处在上游,其能盈利代表下游的AI应用已经被盘活。

张小东认为,从数据产量和日均Token消耗量两个维度进行推理,都能显示出对算力的需求量正在不断上涨。

2024年,中国数据产量同比增长20%,数据流通量同比增长超30%,很多数据都用于AI,从数据使用量的角度倒推算力需求量的增长比例大概在20%-30%。

从日均Token消耗数量统计,运营商内部估算的数据是2024年整体的Token消耗量大概在5万亿,2025年底预计会翻十倍到50万亿,Token用量代表对算力的消耗,从这个角度讲,算力的需求会增长1000%。

需求量的上涨将带动闲置算力的消纳,而行业也正在推出更灵活的销售模式以适应市场需求。

针对训练需求,智算中心会把零散的算力组成整体售卖给头部客户。针对小客户的推理需求,智算中心会把算力打散,改变原先租整机的模式,将一台机器8张卡分成24小时售卖,灵活配置卡时给用户。而按照Token计数的算力收费模式,则通过最小的计费单位,实现最大化的算力消纳,提高算力的利用率。

“世界上没有用不掉、不合适的算力,重点在于找到合适的应用。”金亚东说,“算力市场更重要的是做好‘散对散’之间的配对,100-1000P算力供给方和大概5000万家中小型企业才是未来市场的主角,已经上线的天元智算算力调度平台就能为散对散的交易提供合作渠道。”

而对于国产算力面临的性能问题,也不断有新的技术解决方案进行算力优化。

“国产芯片比较像单项选手,整体的性能较弱但一些指标性能尚可。”潘齐认为,通过异构集群对国产芯片进行算力优化,并通过先进计算迭代平台,推动软件带动硬件,能够形成一个整体优化的解决方案。

国内北电数智、无问芯穹和澎峰科技等企业都在针对国产算力做优化,通过不同的技术解决方案,提升国产芯片在算力方面的性能和效率。

政府补贴是支撑国内智算产业发展的重要力量,却在市场上饱受诟病。不少从业者认为,补贴引来了诸多逐利者,扰乱了智算中心产业的正常发展。

金亚东说,“这是产业发展的规律性现象,在初级阶段,国家把钱投到智算中心并推动国产芯片的使用没什么问题,新能源电动车也是这样补贴出来的,先补供给侧,供给量足够大的时候再补需求侧,最后让需求侧挑选供给侧,市场化的筛选能挑出最有竞争力的参与者。”

下个阶段,政府的支持和补贴或将转移到下游的AI应用。随着需求量的增加、供需匹配机制的完善以及拨乱反正的推进,智算中心还值得期待。

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备2021030705号-4