本文来源:时代财经 作者:谢斯临
图片来源:Pixabay
ChatGPT爆火带动AI芯片需求飙升。
(相关资料图)
截至上周五,英伟达最新发布的旗舰AI芯片H100在ebay上的售价超过4万美元一枚。相比此前零售商3.6万美元的报价,已提价明显。
这一价格仍在持续上涨。4月19日,时代财经搜索eBay时发现,目前共有5家店铺挂牌销售H100芯片,售价普遍达到4.5万美元左右,其中标价最高的一枚超过5万美元。以人民币计,相当于不到一周时间涨价近7万元。
而在国内,AI应用的主力芯片——由英伟达2020年发布的A100,其交易价格也在极短时间内迅速飙升。从事GPU服务器销售的文强(化名)向时代财经表示,从年初开始到现在短短三个月多时间里,A100的价格已经从原本的6万元左右一路涨至9万元,甚至一度超过10万元,涨幅超过50%。
在文强看来,A100售价还将继续上涨。去年8月,美国政府发布政策,禁止英伟达A100、H100两款AI芯片售往中国。目前,国内在售的产品都是此前的存货。业内预估,国内A100芯片仅有3万枚存货,奇货可居。
为符合美国政府出口管制政策,英伟达随后宣布推出在性能、带宽上有所阉割的“减配版”A800、H800芯片。受限于产能问题,这两款芯片同样缺货,价格也随之水涨船高。
文强告诉时代财经,自己手中A800报价也已经高达8.7万元,且仅剩16枚,售完即止。如果需求量大、需要订货,报价还会再涨5000元至9.2万元,直逼A100芯片售价。
“一天一个价,一天比一天贵。”
A100芯片缺口达30万枚
算力、算法和数据构成了AI时代的三要素,而算力又是基础设施。有多少枚GPU、多少算力,被认为是大语音模型研发和创业成败最为关键的因素之一。
正是因此,在海内外一众巨头和创业者涌入大语言模型研发训练的当下,市场对AI芯片的需求量飙升。
据前人工智能NLP企业首席科学家、千芯科技董事长陈巍测算,国内如果想要直接训练出一个GPT-3级别的大模型,最少需要3000到5000枚A100级别的AI芯片。
这意味着国内市场存在巨大的供应缺口。目前除了阿里巴巴、百度等互联网巨头之外,商汤科技、昆仑万维、毫末智行、360、知乎等公司也官宣了自己的大模型,如果再加上王小川、王慧文、李开复等创业者,中国年内即将推出的大模型数量已经超过10个。光是满足这些企业的需求就需要3万到5万枚A100级别的AI芯片。
这还只是研发训练层面的需求量。陈巍向时代财经表示,如果想要实际部署,算力的需求量只会更大。以保守情况估计,国内A100级别的AI芯片缺口在30万枚左右。
“我们算过,如果百度要在自己的搜索引擎内接入类似ChatGPT这样的对话模型,可能需要10万块A100级别的AI芯片,这还只是假设每个人只对话一次的保守测算。”
正是因此,A800、H800芯片遭到包括服务器、互联网厂商在内的公司哄抢。
一份流传的《阿里AI专家交流纪要》显示,百度年初紧急下单3000台8枚芯片的A800服务器,这意味着需要2.4万枚A800,预计全年百度会有A800和H800共5万枚需求。阿里云预计在今年需要1万枚左右,其中6000枚是H800。
在海外,巨头们的抢购也同样疯狂。据媒体报道,马斯克为推进推特内部的新AIGC项目,购买了大约1万枚AI芯片。而自2022年末开始,微软就实行了GPU资源配额供给,但今年1月以来审批时间越来越长,如今部分申请需要等待几天甚至几周才能获批。同时,微软向英伟达预订的数万枚AI芯片,交货无期。
或拖慢国产大语言模型发展
对于大语言模型训练来说,英伟达几乎成为唯一的赢家。
去年,国产芯片公司壁仞科技发布的BR100,已经被普遍认为能够在算力和能效比上达到全球领先水准。然而,在配套的产品生态上,几乎无人能与英伟达抗衡。
一位AI芯片设计相关的从业者向时代财经表示,英伟达于2006年发布的CUDA平台早已成为应用最为广泛的AI开发生态系统,然而CUDA几乎只支持英伟达的Tesla架构GPU,这导致开发者难以脱离英伟达芯片,进行生成式AI的研发以及训练。“几乎没有芯片公司可以撼动英伟达的统治地位。”
IDC数据显示,国内GPU服务器在2021年占国内服务器市场规模的比例超过88.4%,英伟达的产品占比超80%。
但受限于美国政府的出口管制政策,中国一众互联网大厂、大语言模型的创业者都无法及时获得最先进的AI芯片。在国内难以产出替代产品的情况下,毫无疑问将会影响国产大语言模型的发展进程。
在陈巍看来,中国企业如果使用“减配版”芯片,综合带宽性能可能只有同期旗舰型号的六成。这样需求量更大,跑得却更慢,综合成本至少要高出20%至30%。“这很有可能是赚钱和不赚钱的分水岭,活下去和活不下去的分水岭。”