2024年Copilot进入商用,将同步带动AI Server及终端AI PC发展

时间:2024-01-18来源:集邦咨询

AI话题热议,2024年将拓展至更多边缘AI应用,或延续AI server基础,推至AI PC等终端装置。TrendForce集邦咨询预期,2024年全球AI服务器(包含AI Training及AI Inference)将超过160万台,年成长率达40%,而后续预期CSP也将会更积极投入。

由于严谨的Edge AI应用,将回归至终端的AI PC,借以落实分散AI服务器的工作量能,并且扩大AI使用规模的可能性。据此,TrendForce集邦咨询定义AI PC需达Microsoft要求的40 TOPS算力基础,考量满足此需求的新品出货都将落于2024下半年,待CPU产业龙头Intel于2024年终推出Lunar Lake后,2025年才可望见证更快速的成长。

目前AI PC市场可大致分为两大推动力量,其一,由终端应用需求推动,主由Microsoft凭借个人计算机Windows操作系统及Office等工具几近独占市场地位,预期将推新一代Windows整合Copilot,促使Copilot变成硬需求。其二,CPU领先者Intel诉求AI PC为搭配CPU+GPU+NPU架构,藉此推动发展各种终端AI应用。

以Microsoft Copilot对算力的要求来说,Qualcomm于2023年底发布的Snapdragon X Elite平台,将于2024年下半年前率先出货符合Copilot标准的CPU,算力应可达45 TOPS,而AMD随后将推出的Ryzen 8000系列(Strix Point),估计也将符合该算力规格。若以Intel于2023年12月推出的Meteor Lake,其CPU+GPU+NPU算力仅34 TOPS,并不符合Microsoft要求,但预期今年底所推Lunar Lake则有机会超过40 TOPS门槛。

值得注意的是,未来在Qualcomm及Intel、AMD竞逐AI PC过程,也将牵动x86及Arm两大CPU阵营在Edge AI市场的竞争。由于Qualcomm有望率先符合Microsoft需求,以PC主要OEMs如Dell、HPE、LENOVO、或ASUS、ACER等在2024年将陆续开发搭载Qualcomm CPU机种,以争取首波AI PC机会,将带给X86阵营一定威胁。

AI PC有望带动PC平均搭载容量提升,并拉高PC DRAM的LPDDR比重

从现有Microsoft针对AI PC的规格要求来看,DRAM基本需求为16GB起跳,长期来看,TrendForce集邦咨询认为,AI PC将有机会带动PC DRAM的位元需求年成长,后续伴随着消费者的换机潮,进而加大产业对PC DRAM的位元需求。

再者,以Microsoft定义的满足NPU 40 TOPS的CPU而言,共有三款且依据出货时间先后分别为Qualcomm Snapdragon X Elite、AMD Strix Point及Intel Lunar Lake。其中,三款CPU的共同点为皆采用LPDDR5x,而非现在主流采用的DDR SO-DIMM模组,主要考量在于传输速度的提升;以DDR5规格而言,目前速度为4800-5600Mbps,而LPDDR5x则是落于7500-8533Mbps,对于需要接受更多语言指令,及缩短反应速度的AI PC将有所帮助。因此,TrendForce集邦咨询预期,今年LPDDR占PC DRAM需求约30~35%,未来将受到AI PC的CPU厂商的规格支援,从而拉高LPDDR导入比重再提升。

关键词: Copilot AI Server AI PC TrendForce

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版