找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 299|回复: 0

AI算力产业趋势分析

[复制链接]
发表于 2025-7-1 05:19 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
【事件一】

英伟达股东大会传递乐观信号,黄仁勋强调AI需求持续强劲,重申英伟达处于为期十年的AI基础设施建设浪潮的起点,明确“一年一更新”产品路线图,锁定算力产业链的升级节奏。

【事件二】

OpenAI旗舰模型GPT-5即将推出,大模型训练算力需求指数级增长延续。近五年,AI大模型所需的训练算力每年增加一个数量级以上。GPT 5预计将在今年夏季正式发布,性能进一步迈向通用AI,带动AI大模型的竞速与迭代。

【事件三】

海外大模型实现商业闭环,推理侧需求带动算力高增。Google最新tokens消耗量达480万亿,同比增长50倍,AI model算力消耗高增;微软近一季度tokens量同比增长五倍以上;Grok的5月访问量较年初增长约150倍。

一、AI芯片:算力硬件的“心脏”,技术迭代与生态竞争是核心
AI芯片是算力的核心载体,当前以GPU为主导,ASIC、FPGA加速渗透,技术路线围绕“更高算力、更低功耗、更强互联”演进。
w1.jpg

二、算力基础设施:数据中心与服务器,承载算力的“物理底座”

AI算力需求爆发推动数据中心向“高密化、智能化、绿色化”升级,服务器架构从通用型向AI专用型转型。

w2.jpg

三、网络通信:算力网络的“神经脉络”,高速率与低延迟是关键

AI集群规模扩张(从千卡到万卡)要求网络具备高带宽、低延迟、高可靠性,推动光模块、光器件、铜连接、DCI(数据中心互连)等技术快速迭代。

w3.jpg

四、散热与供电:高密算力的“降温刚需”,液冷渗透率加速

AI服务器功率密度(30-50kW/柜)远超传统服务器(10kW/柜),传统风冷无法满足散热需求,液冷(浸没式/冷板式)成为必选项。

w4.jpg

五、生态与应用:大模型与行业落地,反哺算力需求

AI算力的终极目标是支撑大模型训练与行业应用,形成“算力-模型-应用”正循环。

w5.jpg

六、投资风险提示

w6.jpg

七、总结

当前AI算力投资仍处于早期阶段,光模块(800G/1.6T)、网络互连(铜连接/DCI)、液冷、ASIC 是短期爆发性最强的环节;长期看,GPU/ASIC芯片、先进封装(HBM)、CPO技术决定长期壁垒。

建议关注:

光模块/光器件:中际旭创、新易盛、天孚通信、光迅科技;

网络互连:沃尔核材、瑞可达、德科立;

散热/供电:英维克、高澜股份;

芯片/服务器:海光信息、寒武纪、浪潮信息。

w7.jpg

w8.jpg

以上表格基于最新行业动态(截至2025年6月)优化补充,覆盖技术趋势、关键厂商、最新进展及投资机会四大维度,数据来源包括LightCounting、各厂商财报、行业白皮书及公开新闻报道,确保准确性和时效性。

所有表格使用最新数据制作生成,经过多次验证补充更新,力求全面详细,客观真实,后续也会不断更新完善,欢迎大家转发下载。如果需要其他题材表格,请在公众号下方留言!
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-7-10 00:47 , Processed in 0.132445 second(s), 31 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表