18143453325 在线咨询 在线咨询
18143453325 在线咨询
所在位置: 首页 > 营销资讯 > 行业动态 > 面向数据科学家和人工智能研究人员的Magnum IO

面向数据科学家和人工智能研究人员的Magnum IO

时间:2022-03-12 01:15:01 | 来源:行业动态

时间:2022-03-12 01:15:01 来源:行业动态

Magnum IO是一款软件套件,旨在帮助数据科学家、人工智能和高性能计算研究人员能够在数分钟而不是数小时内处理大量的数据。

该软件套件和工具与传统模型相比,当处理海量数据集能够为多服务器、多GPU计算节点提供高达20倍的数据传输速度,因此非常适合进行大规模的复杂财务分析、气候建模和其他高性能计算工作负载。

黄仁勋表示:处理大量收集来的数据或者模拟数据是像人工智能这样的数据科学的核心。

Nvidia通过与计算、网络和存储领域的众多行业领导者紧密合作开发了Magnum IO,包括DataDirect Networks、Excelero、IBM、Mellanox和WekaIOLtd。

Magnum IO的核心是GPUDirect,该架构允许数据绕过CPU并使用GPU、存储和网络设备提供的开放高速公路来处理数据,发布之初该架构兼容众多采用点对点和远程访问直接内存的通信互连。

黄仁勋表示:极端计算需要极端的I/O。Magnum IO通过将Nvidia GPU加速具有革命性的计算基数引入I/O和存储来实现这一点。现在,人工智能研究人员和数据科学家不用等待漫长的数据处理,可以把精力放在完成自己的工作上。

最新推出的元素是GPUDirect Storage,它让研究人员可以在访问存储时绕过CPU,快速处理数据文件以进行仿真、分析或可视化。

Nvidia Magnum IO现已上市,但不包含GPUDirect Storage,GPUDirect Storage仅面向某些选定的早期客户,计划于2020年上半年全面上市。

关键词:研究,数据,科学家

74
73
25
news

版权所有© 亿企邦 1997-2022 保留一切法律许可权利。

为了最佳展示效果,本站不支持IE9及以下版本的浏览器,建议您使用谷歌Chrome浏览器。 点击下载Chrome浏览器
关闭