摘要:【盘中宝】大模型等系列AIGC产品持续落地,这类产品是服务器重要配套设施,这家公司相关产品已应用于超算中心
财联社资讯获悉,随着大模型等系列AIGC产品的商业化落地,AI服务器的需求将会快速提升,其中大量的高功率CPU、GPU芯片将带动整台AI服务器功耗走高。机构指出,未来AI集群算力密度普遍有望达到20-50kW/柜,自然风冷技术一般只支持8-10kW,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过15kW后性价比大幅下降,液冷散热方案的能力与经济性优势逐步凸显。
一、风冷散热技术面临严峻挑战
后摩尔定律时代芯片算力与功耗同步大幅度提升,风冷散热技术面临严峻挑战。(1)CPU方面,随着内核数量的增加,处理器性能不断提高,带动处理器功率不断增加,特殊场景下(如高性能云计算)处理器将使用超频以提高运算性能,进一步提升功耗。Intel 2023年一季度发布的第四代至强处理器多款子产品热设计功耗达350W、AMD EPYC 9004系列处理器,单颗多达96个核心,最大功率可达400W。(2)GPU方面,2022年英伟达于GTC大会上发布H100计算卡,其具有SXM、PCIe 5.0两种样式,最高功耗可达700W,已超出传统风冷系统散热的能力范畴,于是英伟达直接在机架中整合液冷散热系统,取代传统的系统风冷散热。
液冷技术按照液体与发热器件的接触方式,可分为“间接接触型”和“直接接触型”两大类。间接接触型液冷技术是指服务器热源与液冷剂之间没有直接接触的换热过程,其中,冷板式液冷是最典型的间接接触型液冷技术;直接接触型液冷技术是将发热部件与直液冷剂直接接触的冷却方式,主要有浸没式液冷和喷淋式液冷两种技术,其中,浸没式液冷最为典型。对比来看,冷板式液冷技术改造成本低、技术最成熟,浸没式和喷淋式液冷技术冷却效果更好,但改造成本高,且现阶段落地应用较少。
二、大模型应用或将带来近百亿液冷解决方案市场空间
招商证券分析指出,根据微软数据,ChatGPT前一代基础模型—GPT3.0的训练数据高达45TB,总训练设备包括28.5万个CPU 与超过1万个NVIDIA V100 GPU。随着国内百度、阿里巴巴、腾讯、华为、360、字节等互联网大厂陆续推出自己的AIGC算力模型,势必会对国内AI服务器的需求快速增加,基于用于推理与训练的 AI 服务器中冷板式液冷与浸没式液冷的占比与相应价值量,测算得出,随着国内互联网大厂陆续推出自己的大模型,将会带来34.41亿元的冷板式液冷增量空间与58.99亿元的浸没式液冷增量空间,总计将带来93.4亿元的液冷解决方案新增量市场。
三、相关上市公司:申菱环境、飞龙股份、欧陆通
申菱环境推出的数据中心液冷实现多年商业化应用,液冷解决方案已应用于超算中心和互联网数据中心。
飞龙股份电子水泵系列油泵系列产品和热管理系统平台产品经过设计优化升级后已经形成多个专用GPU冷却、AI服务器上的平台产品,目前已有多个项目正在进行小批量和开发中。
欧陆通为阿里巴巴定制的新一代浸没式液冷集中式供电电源在云栖大会展出,应用于磐久服务器供电系统,此次推出的新一代供电架构结合了浸没式液冷+集中式供电的双重优势,在保证高可靠性的同时,具备业界超一流效率指标,带ATS部件整机效率高达97%+。
近期热门系列:
4月3日《光模块中最核心的器件,AIGC算力催生需求,这类产品有望快速放量,这家公司正在开发的芯片可以用于该领域,相关产品研发进度顺利》
4月3日《行业巨头发布行业大模型产品,有望成为垂直GPT率先落地的场景,这家公司已成为文心一言首批合作伙伴》
3月30日《AI赋能这个领域,从需求到供给改革行业生态,这家公司入选首批该计划合作伙伴单位》
3月29日《AI大算力场景下重要新技术路线,这类产品销量四年有望提升达90倍,这家公司已推出相关产品》
免责声明:
本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性作出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任