ChatGPT宕机上热搜,这些AI算力芯片又要火了?
article.author.display_name
尹洪昌
2月9日,算力股大爆发,CPO、数据中心、芯片等相关概念集体大涨。
CPO方面,创业板联特科技3天2板,剑桥科技涨停,天孚通信、新易盛、博创科技等大涨。
云计算数据中心,立昂技术、景嘉微、杰创智能、浪潮信息等纷纷涨停,中科曙光、紫光股份等大幅走高。
芯片板块,恒烁股份20CM涨停,必易微、海光信息、安路科技等多股涨超10%,阿石创、晶丰明源等均大幅走强。
催化方面,除了阿里、腾讯等巨头接连曝出加码ChatGPT外,后者宕机新闻也频上热搜。
据ChatGPT在官网表示,许多人在“最近一小时内蜂拥而至我们的网站,但我们的(网络)资源是有限制的。”“我们将及时提供您访问ChatGPT的机会,在此之前我们向您告别,祝您好运。”
据瑞银集团的一份报告显示,在ChatGPT推出仅两个月后,它在2023年1月末的月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序。
不仅如此,在刚刚嵌入类似ChatGPT的机器人的微软Bing APP在全球范围内的新下载量增长了10倍。
多重影响下,算力开始被市场明显关注。前两者前几天已经专门写文章聊过,今天再一起来聊聊芯片,毕竟算力本质之一就是半导体。
中信建投研报的数据显示,此前用于AI训练的算力增长符合摩尔定律,大约每20个月翻一番;深度学习的出现加速了性能的扩展,用于AI训练的算力大约每6个月翻一番;而目前大规模模型出现,其训练算力是原来的10到100倍。
以GPT-3为例,该模型有着多达1750亿的参数,训练所需的算力高达3650PFLOPS-day。按照Lambda的测算,以V100理想状态下28 TFLOPS的算力和最低3年起云计算的成本,完成训练GPT-3需要花费460万美元,而下一代GPT-4的参数将更多。
ChatGPT推动芯片需求量价齐升
浙商证券指出,ChatGPT热潮席卷全球、AIGC将产生巨大算力市场的背景下,芯片需求将迎来量价齐升。
量的方面,AIGC带来的全新场景+原场景流量大幅提高。
ChatGPT完美运行的三个条件:训练数据+模型算法+算力。其中训练数据市场广阔,技术壁垒较低,投入足够的人力物力及财力后即可获得;基础模型及模型调优对算力的需求较低,但获得ChatGPT功能需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。所以,算力是ChatGPT运行的关键所在。
价的方面,对高端芯片的需求将拉动芯片均价。
其指出,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100,一次模型训练成本超过1200万美元。从芯片市场角度出发,芯片需求的快速增加会进一步拉高芯片均价。
综合来看,其表示,无论是从技术原理角度还是运行条件角度,ChatGPT都需要强大算力作为支撑,从而带动场景流量大幅增加,此外,ChatGPT对于高端芯片的需求增加也会拉动芯片均价,量价齐升导致芯片需求暴涨。
AI芯片市场将迎迅猛成长
据信达证券研报,AI芯片是针对人工智能算法做了特殊加速设计的芯片。算力是人工智能发展的关键因素之一,随着深度学习算法的普及和应用,人工智能对算力提出了更高的要求,传统的CPU架构难以满足人工智能算法对算力的要求,因此具有海量数据并行计算能力、能加速计算处理的AI芯片应运而生。
技术层面上,AI芯片根据其技术架构,可以分为GPU、FPGA(现场可编程门阵列)、ASIC(专用集成电路)和类脑芯片,同时CPU也可用以执行通用AI计算。当前GPU为AI生态主体,被广泛用于高性能计算、深度学习等领域;FPGA和ASIC等非GPU AI芯片则在快速迭代实现替代。
信达证券表示,当前时间节点看好人工智能芯片及人工智能相关的半导体产业链,核心逻辑在于AIGC的出现真正赋予了人工智能大规模落地的场景,AI芯片也将从过去面向厂商的训练场景为主转变为面向消费者的推理场景为主。
其认为,AIGC推动AI产业化由软件向硬件切换,半导体+AI生态逐渐清晰,AI芯片产品将实现大规模落地。硬件端核心包括AI芯片/GPU/CPU/FPGA/AI SoC等,而在AI芯片中,算力及信息传输速率成为关键技术,芯片性能及成本的平衡也带动周边生态,包括Chiplet/先进封装/IP等产业链受益。
浙商证券也表示,面对指数级增长的算力和数据传输需求,可以进行提供的GPU或CPU+FPGA芯片厂商、光模块厂商即将迎来蓝海市场。
风险提示及免责条款
共有 0 条评论