社会热点
行业调研|国产算力现状及展望会议
2024-02-28 12:22  浏览:11
QOpenAI发布的Sora模型,对训练端和推理端算力有什么影响?
ASora模型提高了对训练端和推理端算力的需求。对于训练端,由于Sora模型是多模态的,它集合了语音、文字、图片、视频等信息流,因此对数据传输的要求更高,对算力和算法的要求也随之增高。至于推理端,尽管目前还主要集中在云端处理,但随着模型部署到更多边缘和终端设备,未来对于推理算力的要求也将提升。
Q:当前国产算力芯片技术发展情况,以及与国际先进水平的差距?
A:当前国产芯片与国际先进水平的最大差距在于生态系统。国产芯片的性能虽然有所提升,但与英伟达的新款芯片相比,差距依然很大。目前国内主流的芯片可能只能对标英伟达上一代的A100芯片。
Q:未来国产算力芯片有哪些值得期待的发展方向?
A:未来值得期待的发展方向有两个:首先是新制程技术的突破,这将使得芯片在有限空间内拥有更多晶体管,提高性能;其次是面向特定应用场景的专用AI芯片的出现,针对不同场景设计的专门芯片将发展起来。而关于新品发布的时间节点,如昇腾的新产品,预计可能在2024年年底发布,但具体还需结合研发进度和市场节奏。
Q:新一代芯片与上一代相比有哪些进步?您能否进行展望?
A:新一代芯片在单卡性能、算力方面会有突破。910B单卡性能能达到400T,新一代产品肯定要超过这个水平。虽然我无法精确预测,但乐观估计可能达到1000T。技术上尚未达到这一步,500G700G的单卡性能较为合理。
Q:目前,国产芯片客户主要集中在哪些领域?英伟达与国产芯片在这些领域使用比例大概是多少?
A:国产芯片主要有以下四类用户:政府、央企建设人工智能计算中心;大型互联网公司为国产化替代采购;整机合作企业把国产化芯片整合为解决方案销售;对信创项目的采购商打包成解决方案出售。目前看,国产芯片与英伟达芯片的使用比例保守估计为1:9即国产芯片约占市场的10%
Q:新系列芯片发布后,客户是否倾向于继续使用英伟达芯片还是转向国产?
A:这取决于客户的类型。政府、央企或有示范项目要求的客户会更倾向于国产芯片。而更注重经济效益的小型客户可能仍会使用英伟达芯片。预计国产芯片的市场份额会增加约5%10%,最乐观估计可能达到市场份额82。这反映了不同客户的采购倾向和预期市场变动。
Q:未来出货量的预期如何?
A:美国政策的变化影响国产芯片的销量正在增长,从2022年的数十亿规模到突破100亿。今年,随着910B的推广和产能提升,销量有望突破200亿。这个预期是指华为的出货情况
Q:国产芯片的定价策略如何?
A:国产芯片定价策略因厂商而异,但以昇腾和英伟达比较,价格差距不大。对比来看,国产领先的芯片价格在120万到140万之间,而英伟达的A100售价大概在160万到180万之间。因此,国产芯片存在一定的性价比优势,并且由于美国禁令影响英伟达的供货,国产芯片在市场有一定的优势。这里讨论的是八卡服务器的价格。
Q:当前国产芯片、服务器整机和客户需求之间的匹配情况如何?瓶颈主要在哪里?
A:目前来说,国产芯片的产能是主要瓶颈。以910B芯片为例,尽管已发布,但其产能一直无法满足市场需求。目前的产能尚不能满足市场的严重需求。产能问题主要在于供应链约束和生产经验的紧缺,这些因素导致某些大型互联网公司的供给过度集中。但后续随着生产问题的解决和产能提升,预期产能将能够赶上需求。我预计在产能满足需求的前提下,今年的销售额能够达到200亿元。
Q:产能短缺是否会导致产品提价的预期?
A:产品定价受多方面因素影响,但主要还是会受到国际大厂如英伟达的影响。去年910B发布时,并没有定得非常高,是因为当时与英伟达的A100定价相比较,A100并不昂贵。而今年随着A100的提价,相应我们的产品价格也进行了调整。所以,产品的提价预期主要是基于供应商如英伟达的定价走势,而非单纯由供需状况决定。
Q:在主流AI服务器中,芯片的成本占比大概是多少?这是否会影响整机厂的利润率变化趋势?
A:以英伟达的A100为例,一台配备了八张A100 80G显卡的服务器售价在160万到180万之间,其中光显卡的成本就大约在120万左右。因此,显卡(GPU)大概占到整机成本的75%左右。尽管显卡价格上涨会影响整机生产的成本,但英伟达整体的利润变化趋势不会太大。主要是因为显卡价格的上升主要反映了芯片的成本提高。国内合作伙伴并没有从中获得显著增长的利益。这表明芯片成本占比对整机厂的利润率影响较大,但最终利润大部分被芯片供应商所拿走。
Q:芯片厂商在选择整机合作伙伴时看重哪些因素?哪家合作伙伴做得最好?
A:首先,芯片厂商主要考量的是整机厂商是否愿意深度绑定并按照芯片厂商的路线制造产品。例如科大讯飞就愿意适配华为的昇腾芯片系列。
第二,厂商会重视整机厂商的实力,特别是其每年的芯片需求量,像讯飞、蚂蚁、美团这样需求量大的企业更受青睐。
第三,整机厂商是否有孵化原生大模型的实力也是关键,因为这对芯片厂商生态系统的构建有巨大帮助。
Q:就整机厂商的市场份额和利润率的变化趋势怎么看?
A:对于整机厂商来说,尽管国产芯片需求量不断增加,但他们的市场份额和利润率变化不大。主要的利润仍然归芯片供应商所有。整体而言,整机产品的价格上升,但整机厂商的利润率并无显著变化。
Q:那么对于整机厂商和代工厂商的市占率和合作情况有什么看法?
A:市场预测表明,随着国产芯片性能的提升和对美国技术依赖的逐渐减少,整机及代工厂商的市场份额将不断提升。虽然目前可能相比如英伟达的份额还是小,但预期今年的份额可能会有所提升。至于具体哪些整机厂商会与昇腾进行更多合作,这取决于各家企业的策略和需求,目前并没有公开具体的优先级。
Q:国产大模型在需求端对算力的利用率是多少?目前算力消耗的量级有多少?
A:目前,国产大模型在算力需求端的利用率确实是19的比例。对于国内大模型每月的算力消耗量级,不同企业会有所不同,但一般来说算力消耗可达到单月100P的量级。
Q:国内大模型租赁算力服务器的持续性如何?是否存在算力闲置的问题?
A:确实存在算力租赁的持续性问题,由于大量算力采用云计算服务,当这些算力在不需要进行大规模训练的时期,可能会出现断裂或闲置现象。
Q:国内大模型在技术路径选择上,是只使用一种服务器,还是可以并行使用不同的服务器?
A:国内主流大模型不仅基于特定类型的芯片开发,同时也兼容国内主流芯片厂商的产品,包括针对英伟达等开发的单位。主旨在于并行采用不同技术路线,以应对潜在的芯片供应问题。
Q:目前关于英伟达服务器的最新限制,如锁定IP或锁卡,是否对国内用户造成影响?
A:尽管市场上有关锁定IP或锁卡的担忧,但暂时没有确切消息表明此类现象已经发生。即使有高端用户通过特殊渠道采购了更先进的芯片,我们也没有收到确切的问题报告。
Q:在未来稳态时,整个训练端和推理端的算力需求比例是多少?
A:目前可能更多算力用于训练,但在未来稳态时,训练和推理的算力需求比例可能会达到55,这是我的个人看法。
Q:除生产公司外,国内还有哪些做得比较好的GPU公司?与英伟达的差距有多大?
A:除了生产外,国内还有其他优秀企业如寒武纪等,他们的产品集中在推理端。国内推理端设备与国外先进设备在性能上差距不大,可能能达到80%的性能水平。生产主要是针对训练端,而寒武纪则主打边缘设备。
Q:与昇腾合作的模式及各模式的准入条件是什么?
A:与昇腾的合作模式主要有三类:第一类直接将设备销售出去;第二类将设备打包成整体的服务器出售;第三类则是进行改装和升级后提供增强方案。每一种模式的合作伙伴和准入条件可能都不相同。
Q:在服务器的销售过程中,是由哪方面的机构主导与客户的接触?
A:主要是由服务器的合作伙伴来负责销售的工作,而芯片厂商则主要负责提供技术支持。这些服务器的销售伙伴一般没有能力提供针对芯片的技术支撑。
Q:视频大模型对GPU的图形渲染能力有哪些要求?
A:通常视频大模型对GPU图形渲染的要求并不高,除非是需要渲染非常复杂绚丽的图像。目前国产的NPUGPU也可以支持常规的图形渲染需求。此外,国产NPU已经在一些语言生成图的大模型方面有所应用,例如悟空画画大模型,因此这些技术对图形学的需求在常规图片下并不会构成太大的挑战。
Q:英伟达在国内的AI芯片市场占据80%份额的依据是什么?国产芯片如何在性价比上与之比较?
A:这一判断主要是基于客户技术的情况和市场的总体情况得出的。国内的厂商和经销商仍然持有一定量的英伟达芯片库存。而针对性价比的比较,910B国产芯片的性能和定价是公开的,而对于英伟达新推出的H20芯片,由于尚未在国内测试,不方便做过多评价,无法确切比较两者在性价比上的具体差距。
Q:寒武纪和海光这两个厂商的AI芯片销量预期和市场表现怎样?
A寒武纪主要集中在推理设备端,主要客户是视频和安防领域,具体到海康威视、大华等公司,该领域的订单量已有过百万片。海光则主要专注于数据中心用具体设备,对他们产品的具体情况需要更多的了解才能进行评价。由此来看,两家厂商在他们各自专注的领域都有积极的表现和一定的市场预期。
发表评论
0评