#Agent重塑算力底座,#需求爆发推动CPU量价齐升 传统大模型的单次交互正向Agent复杂多步推理循环演进,随着智能体任务变多变杂,计算负载正从GPU密集转向CPU密集,预计AI数据中心CPU与GPU配比将从当前的1:8向未来1:2甚至1:1转变。同时,AI算力需求爆发叠加产能被GPU大量挤占,服务器CPU正呈现从消费级蔓延至企业级的递进式涨价,短期缺货难以缓解。当前,Nvidia、Arm及头部云厂商均在加速自研CPU布局,印证了CPU在AI算力基础设施中重要性的持续提升。
#突破推理成本瓶颈,#ASIC引爆硬件异构新时代 随着AI从训练走向推理,Token成本已成制约应用扩张的核心瓶颈。定制化ASIC凭借极致的能效比正成为降低单Token成本的最优解,Marvell预计2023-2028年全球AI ASIC市场年复合增长率将高达53%。为规避通用GPU强绑定风险与实现降本,Meta联手博通延期合作至2029并开发2nm ASIC,OpenAI、谷歌亦加码外部合作。目前超六成AI初创公司选择ASIC路线,通过主攻极端场景、深耕垂直行业或生态绑定巨头实现突围,算力部署正加速走向通用GPU为主+定制ASIC为辅的异构协同模式。
标的层面:海光信息、中科曙光等