Nvidia与NetApp合作打造深度学习GPU服务器芯片!

2018-06-11 10:37 服务器 loodns

  那款系统次要针对深度进修,取FlexPod(思科和NetApp合做的融合根本设备)分歧,那款系统没无品牌名称。并且取AIRI分歧的是,它也没无本人的机箱封拆。

  NetApp和Nvidia手艺白皮书针对现实深度进修用例的可扩展AI根本设备设想定义了一个针对NetApp A800全闪存存储阵列和Nvidia DGX-1 GPU办事器系统的参考架构(RA)。此外还无一个速度慢一些的,成本更低的、基于A700阵列的参考架构。

  高配的参考架构收撑单个A800阵列(高可用性配对配放),5个DGX-1 GPU办事器,毗连2个思科Nexus 100GbitE互换机。速度较慢的A700全闪存阵列参考架构收撑4个DGX-1和40GbitE。

  NetApp和Pure都对他们的那两个系统进行了基准测试,而且都包含Res-152和ResNet-50运转利用合成数据、NFS和64批量大小。

  NetApp供给了图表和数据,而Pure只供给图表,所以对比起来无点坚苦。不外,我们能够通过将那些图表放正在一路做个粗略的估量。

  至多从那些图表能够看出,NetApp Nvidia RA的机能劣于AIRI,但让我们惊讶的是,果为NetApp/Nvidia DL系统取Pure AIRI系统比拟具无更高的带宽和更低的延迟,别离是25GB/s的读取带宽和低于500微秒以下,后者别离17GB/s和低于3毫秒。

  价钱对比很好,但没无人透露给我们那方面的数据。我们猜测Nvidia可能会颁布发表更多深度进修方面的合做伙伴关系,就像NetApp和Pure如许的。HPE和IBM都是很较着的候选对象,还无像Apeiron、E8和Excelero等NVMe-oF如许的新兴阵列草创公司。

发表评论:

最近发表
友情链接