用户名: 密码: 验证码:

让CPU回归“本色” Mellanox亮相2016联想全球超算峰会

摘要:2016联想全球超算峰会中国站今日在京开幕,作为HPC系统的“标配”网络提供商以及联想多年的合作伙伴,Mellanox自然不会缺席。

  ICCSZ讯    2016联想全球超算峰会中国站今日在京开幕,作为HPC系统的“标配”网络提供商以及联想多年的合作伙伴,Mellanox自然不会缺席。

  

  >>>>Mellanox亚太及中国区市场开发高级总监刘通

  在《教育,科研,医疗》分会场中, Mellanox亚太及中国区市场开发高级总监刘通围绕Mellanox HPC智能网络方案为现场听众带来了精彩的主题演讲。

  刘通表示:“面对未来的高性能计算, Co-Design(协同设计)——即软件和硬件进行协同开发将是必然的趋势。作为高性能计算领域的驱动者,Mellanox始终致力于打造高带宽低延迟的智能网络互连设备,尤其在InfiniBand领域处于不可辩驳的领先地位。”

  Switch-IB 2 100Gb/s InfiniBand交换机便是Mellanox针对高性能计算、Web 2.0等优化的智能交换机之一,通过独有的SHArP技术,能将MPI(信息传递接口)操作从CPU卸载至网络,让交换机发挥协处理器的作用,从而将性能提升10倍。

  

  Mellanox日前还发布了全新ConnectX-5系列智能网卡,其每秒最高可以处理2亿条消息,可助力实现更强大的HPC性能。它采用创新性的MPI负载技术(如MPI标签匹配和MPI All to All),并且配置了领先的动态路由以及可运行不同数据处理算法的新功能。

  通过智能卸载功能,ConnectX-5能够显著提升CPU、GPU和FPGA的性能,同时避免CPU超负荷运行。

  

  >>>>Mellanox展台一览

  市场需要的不仅是最快的互连速度,而且还需要能够释放CPU资源的最智能、最有效的解决方案,使CPU专注于为应用提供计算能力,而非网络。

  而InfiniBand也不仅仅承担简单的网络转发功能,而是成为了更加智能的单元,帮助CPU回归“本色”——真正有效的计算资源。

  π目前支持着数十个研究组的工作,解决包括等离子体仿真、基因组学以及分子动力学等科学难题,而这些研究都迫切需要超低延迟的网络支持以及超高速的文件系统访问能力。

  经过深入的调研,上海交大发现Mellanox InfiniBand可以满足应用的苛刻要求,有效降低节点间的延迟,充分发挥跨节点间计算性能。

  

  >>>>Mellanox RDMA(远程直接数据访问)技术

  上海交大HPC中心GPU计算工程师也对Mellanox InfiniBand解决方案称赞有加:“当前,高性能计算中心运行着诸多对I/O要求较高的应用程序,包括人类基因组测序等等。Mellanox InfiniBand所具备的RDMA技术有效保障了Lustre并行文件系统的高可靠和高性能。InfiniBand是工业标准网络,每一代新产品都与前一代产品完美兼容,这为我们高性能计算中心的平滑升级奠定了良好基础。”

【加入收藏夹】  【推荐给好友】 
免责声明:凡本网注明“讯石光通讯咨询网”的所有作品,版权均属于光通讯咨询网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。 已经本网授权使用作品的,应在授权范围内使用,反上述声明者,本网将追究其相关法律责任。
※我们诚邀媒体同行合作! 联系方式:讯石光通讯咨询网新闻中心 电话:0755-82960080-188   debison