用户名 密码 立即注册
设为首页收藏本站
搜索
第一家电网 门户 要闻 查看内容

ChatBOT及AI运算风潮将持续渗透至各专业领域开发市场

2023-5-31 09:57| 发布者: admin| 查看: 1095| 评论: 0|来自: 爱集微APP

摘要: 下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域的开发市场。 集微网消息,研究机构TrendForce日前发布预测,指出随着AI服务器与AI芯片需求同步看涨,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货 ...
   下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域的开发市场。


   集微网消息,研究机构TrendForce日前发布预测,指出随着AI服务器与AI芯片需求同步看涨,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货量将接近120万台,年增38.4%,占整体服务器出货量近9%,至2026年占比将进一步提升至15%,该机构同步上修2022-2026年AI服务器出货量年复合增长率至22%,而AI芯片2023年出货量预计将增长46%。

   该机构表示,英伟达GPU已成为AI服务器所搭载芯片的主流,市占率约60-70%,其次为云计算厂商自主研发的ASIC芯片,市占率逾20%。该机构认为,英伟达市占率高的主要原因有三:

   其一,目前各国云服务业者(CSP)除了采购原有的英伟达A100与A800外,下半年需求也将陆续导入H100与H800,尤其新机种H100与H800在平均销售单价(ASP)约为A100与A800的2-2.5倍,且英伟达同时积极销售自家相关整机解决方案。

   其二,高端GPU A100及H100的高获利模式也是关键,由于旗下产品在AI服务器市场已拥有主导权的优势,据该机构研究,H100本身的价差也依据买方采购规模,会产生近5,000美元的差异。

   其三,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智慧制造、金融保险、智慧医疗及自动辅助等)的开发市场,同步带动每台搭配4-8张GPU的云端AI,以及每台搭载2-4张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率将超过50%。

   此外,该机构认为在高阶GPU搭载的HBM上,今年H100等新品将升级至HBM3技术规格,传输速度也较HBM2e快,可提升整体系统运算效能。随着高端产品如A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求逐步提升下,预计2023年HBM需求量将年增58%,2024年有望再增长约30%。


鲜花

握手

雷人

路过

鸡蛋
合作伙伴
友情链接
网站简介| 新闻中心| 版权声明| 合作咨询| 我要投稿| 免责声明| 招聘启事| 联系我们| 隐私保护
总机:010-63510912; 咨询热线:13401051135; 客服QQ:1900713212
版权所有 第一家电网 工业和信息化部备案/许可证编号: 京ICP备12019733号-1

Archiver| Comsenz Inc.   

GMT+8, 2024-4-20 04:53 , Processed in 0.019878 second(s), 16 queries .

Powered by Discuz! X2

© 2001-2011 Comsenz Inc.

回顶部