看着屏幕中列出的一项项数据,洛川忍不住咧开嘴巴。
稳了~
骄阳200单卡FP16算力高达7.92TFLOPS!
对比一下同期顶尖产品。
英伟达于今年3月份刚推出的GeForce GTX 680,单卡算力仅有3.09TFLOPS。
不过二者的属性稍有不同。
后者是通用GPU,设计目标是,兼顾游戏渲染与通用计算,在3D建模、科学计算等场景中,兼容性更强。
而骄阳200为AI算力卡,仅针对AI算子优化,如矩阵乘法、LSTTM门控运算等。
在通用浮点运算和图形渲染管线效率上,要弱于GTX 680不少。
但在AI的核心战场,深度学习训练与推理等垂直领域,骄阳200却有着代际领先!
基于存算一体架构,骄阳200的数据传输延迟,低至15ns!
内存带宽高达1TB/s!
而GTX 680,延迟高达200ns,内存带宽约192GB/s。
以模型训练为例。
后者需频繁在显存与与计算单元间搬运权重数据,每迭代100步,便因数据搬运,浪费28秒。
而骄阳200可实现“数据不动计算动”,同等任务下,计算效率提升4.7倍!
此外,通过骄阳200内置的“自注意力并行计算单元”,针对 Transformer的 QKV矩阵乘法设计,可实现硬件级加速。
单卡每秒可处理2.1万亿次注意力计算!
GTX 680仅 0.4万亿次。
在在BERT-base模型推理中,单卡 QPS,即每秒查询率达1.2万!
是 GTX 680的 3.8倍!
功耗方面。
骄阳200的存算一体架构,使单卡功耗控制在220W,稍低于GTX 680的195W。
但算力功耗比达36.4GFLOPS/W,后者仅有15.8GFLOPS/W。
在7×24小时不间断运行的情况下,8卡骄阳200集群,年耗电量较GTX 680集群减少 120万度!
集群扩展性方面。
基于洛先知亲自主导研发的“芯片间高速通信协议+“云-芯协同”协议+高速总线”三层技术架构,骄阳200实现了节点通信的代际跨越!
单集群可扩展至256卡!
且通信延迟低于8μs!
可实现跨节点数据高效同步,足以轻松支撑10亿参数模型的分布式训练。
不必再像骄阳100那样,通过堆砌节点数量、牺牲算力利用率,强行训练10亿级模型。
与之相比,英伟达仍依赖于PCIe2.0与InfiniBand QDR构建集群。
PCIe总线存在天然瓶颈,节点带宽5GB/s,256卡集群理论总带宽仅1.28TB/s,远低于骄阳200的2TB/s。
参数传输延迟,通常在100μs以上。
且随着节点增加,总线冲突将会导致实际可用带宽,呈指数级下降。
总之,在AI的核心战场上,骄阳200处于领先全球的大气层!