戴尔剧透英伟达B200明年发布,能耗高达1000W,AI终极利好的是:能源?

 戴尔剧透英伟达B200明年发布,能耗高达1000W,AI终极利好的是:能源?

硬AI 



马斯克:美国现在芯片短缺,一年后会出现变压器短缺,大约两年内就会出现电力短缺。
作者:李笑寅

来源:硬AI

“芯片荒”之后,人工智能市场还将面临“电力荒”?

受益于AI服务器需求激增,全球最大的服务器制造商之一戴尔最新财季实现了超预期的营收,股价在过去12个月的时间里上涨了一倍多。

财报发布后,戴尔公司的首席运营官Jeff Clarke在新闻稿中透露:英伟达将于2025年推出载有“Blackwell”架构的B200产品,功耗或将达到1000W。

Clarke还表示,戴尔的旗舰产品PowerEdge XE9680机架服务器采用了英伟达GPU,是该公司历史上“速度最快”的解决方案。

B200功耗较H100增加40%以上
目前,英伟达尚未透露Blackwell架构的详细信息,如果从芯片制造的角度、参考散热的基本经验法则(每mm2芯片面积最高散热量为1W)来看:

英伟达的H100(基于定制4nm级工艺技术构建)的功耗约为700W(包含HBM内存功率在内),并且考虑到芯片裸片的面积大小为814mm2,因此每平方毫米的功耗实际是低于1W的。这就相当于,B200的功耗将较H100增加40%以上。

有媒体机构分析指出,H200很可能会基于另一种性能增强的工艺技术构建,比如采用3nm级的工艺技术构建。

并且考虑到芯片消耗的功率以及所需的散热量,B100可能会成为该公司的第一个双芯片设计生产的GPU,从而使其具有更大的表面积来散热。据悉,AMD和英特尔采用了具有多芯片设计的GPU架构,或将成为一种行业趋势。

除了能耗对芯片设计提出要求外,谈及AI和高性能计算(HPC)应用,还需要考虑到如何平衡这些FLOPS所需的高功率和同时释放的热能。

FLOPS(floating-point operations per second)是指每秒浮点运算次数,一般用来衡量硬件的性能。

对于软件开发人员来说,重要的是如何高效地使用这些FLOPS;而对于硬件开发人员来说,重要的是如何冷却产生这些FLOPS的处理器。

而这正是戴尔Blackwell处理器的优势所在。

Clarke表示:

“(英伟达下一代AI及HPC GPU)将在明年的B200上实现。”

“我们将有机会展示我们的工程技术和我们的行动速度,以及我们作为行业领导者所做的工作,将我们的专业技术用于实现液冷的规模化性能,无论是流体化学和性能方面的工作,还是我们的互连工作、我们正在做的遥测工作、我们正在做的电源管理工作。这确实让我们做好了准备,将其大规模推向市场,以利用市场上将存在的这种令人难以置信的计算能力或强度或能力。”

B200并未出现在英伟达去年10月份发布的技术路线图中。目前,英伟达也还尚未公布B100的详细信息,不过可能会在本月晚些时候即将举行的开发者大会上释出相关细节。

AI终极利好的是——能源?
随着人工智能技术发展,市场眼下对芯片的需求激增,但这之后还将面临着电力需求的激增。

从行业来看,人工智能领域的蓬勃几乎重塑了本就炙手可热的数据中心市场。有相关数据显示,十年前全球数据中心市场的耗电量为100亿瓦,而如今1000亿瓦的水平已十分常见。

尽管目前人工智能仅占全球数据中心规模的一小部分。但根据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。

有策略师分析表示,AI技术发展利好能源股:

“越来越多的人开始意识到,大型人工智能服务器群将需要大量能源,这正在提高一些投资者的兴趣,开始将投资范围扩大至电力、油气在内的相关能源领域,核能也开始受到关注。”

马斯克此前也表现对出能源前景的担忧。去年年底他在一档播客节目中表示,美国现在有芯片短缺,一年后会出现变压器短缺,大约两年内就会出现电力短缺。

有媒体报道称,美国目前的变压器需求主要靠进口补足。随着向更清洁电力系统转型,电网不断扩容,对变压器的需求将激增,如果不采取进一步行动,到2030年美国将面临一道难以逾越的国内供应缺口。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

版权声明:
作者:主机优惠
链接:https://www.techfm.club/p/111482.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>