卡得真狠…

卡得真狠...
上午社群内大佬先发了这条消息,下午陆续在其他群看到了转发。还在验证时间的准确度,但其他内容与最早8月听到的几乎一致。

HBM2什么水平?如下,2018年的古老技术带宽大概是目前海外最新代次HBM3E的1/4,单颗最大容量大概1/5,这还没考虑HBM3E下一步可以搞到16层去…

卡得真狠...

考古一下,哪些芯片用过HBM2?都TM停产了…什么谷歌TPU v3/v4,Intel Gaudi一代,AMD的MI50/60,可能你听都没听过
卡得真狠...
而目前市场上还在卖的主流加速卡,最低配也是HBM2e
卡得真狠...

目前主流的国产AI加速卡,的确都处于HBM2、HBM2e,比如耳熟能详的9XX就是2e,某5XX也是2e,某C5XX也是2e。因此一刀切到HBM2e多少是有点准。

与此同时,国内…也是2e,但量很有限。按照某家的路线图可以清楚看到,目前我们的DRAM被卡在1x和1y之间,其实1ynm DRAM也就支持HBM2

卡得真狠...

因此总结来说就是:卡的真狠…
如果真的只能用HBM2,对加速卡最终的影响有多大?我们1年前算过H20和910B的对比,但那个是按照卡间互联带宽。其实这两个“带宽”是一脉相承的,访存带宽和卡间互联带宽是要“匹配”的,因此计算单卡差距还不够,一旦算集群互联后的性能差距,可能是显存带宽差距的“平方”(非常粗的估计)。比如HBM2和HBM3E的带宽差距是4倍的话,集群的性能差距可能是16倍(其实一点不夸张)。简单来说,基本没法用了。比如H20即便继续阉割,只要还有HBM3,那依然保持优势。
当然了,这都是理论推演,谁说禁了就只能用HBM2…

以上涉及到的报告资料都已经在星球了,后续也请专业的嘉宾老师详细解读下目前HBM这件事后面如何推演

卡得真狠...

  文章内容来自于网络,由百合树AI整理,如有侵权,联系删除。如需开始AI写作请返回主页。

上一篇:

下一篇:

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注