12月15日至19日,NVIDA GTC中国将在线举行。
宁昌信息产业(北京)有限公司(以下简称“宁昌”)作为金牌赞助商首次受邀在GTC亮相,其中包括X640 G30等多种AI服务器产品。
标题:在GTC中国在线会议的宁长展区,常宁表示,随着人工智能和云计算的飞速发展,异构计算模型的AI服务器已成为全球重要的计算能力支持。
IT行业为了提高GPU等核心组件的性能,要充分利用,宁昌依靠多年的行业积累,通过定制模型满足用户对极端性能和稳定性的需求。
多维保证GPU的全部潜力。
回顾2020年的GPU领域,最重要的是发布7nm工艺NVIDIA A100 Tensor Core GPU。
其功能强大的第三代Tensor Core和第三代NVLink技术使大数据模型能够“合理”地进行管理。
和“推论”。
“培训”的效率可以提高。
显着改善。
但是,要充分释放业界顶级GPU的潜力,它将测试服务器制造商的技术和设计硬实力。
据Ning Chang的工程师介绍,充分释放GPU性能的第一步是确保AI服务器具有丰富的可扩展性。
以宁昌AI服务器X640系列为例。
在完全配备8个NVIDIA A100 / V100 Tensor Core GPU或16个NVIDIA T4 Tensor Core GPU之后,X640仍然具有丰富的PCI-E接口,用于网络,存储和其他IO扩展。
丰富的扩展设计确保了定制解决方案的灵活性。
此外,X640可以通过硬件链接进行重新布局,以实现灵活的GPU拓扑,并针对不同的应用场景和模型优化GPU互连。
这将极大地方便用户“训练”运动。
大数据模型。
AI服务器散热也是用户关注的焦点。
为了确保AI服务器一年24小时不间断运行,宁昌冷却团队相继开发了``一体式闭环液体冷却散热器''。
以及“分体式开环冷板液体冷却散热器”和“解决方案,使用户不惧怕长时间。
GPU满负荷运行。
图片说明:宁昌的闭/敞开式液体冷却解决方案设计插图是定制的,宁昌的液体冷却解决方案可以满足GPU产品在400-800W范围内的散热要求,可以根据客户房间的情况选择不同的模块设备与配套的冷藏柜一起部署,以解决客户因水冷适应而导致的外部改装问题。
在能效比方面,定制的液体冷却解决方案节省了超过60%的风扇能耗,减少了50%以上的噪音,并且成本也可以控制在15-20%的范围内。
除了在操作,维护和软件级别上自定义和优化体系结构,硬件,散热等之外,宁昌还可以提供许多监视,操作和维护界面自定义,例如BIOS和BMC。
用户只需要连接电源线和网络电缆,即可将成批的Ningchang AI服务器整合到现有的智能管理平台中,从而使GPU首先发挥作用。
满足企业未来的计算能力需求除了确保列出的GPU产品的全部性能,宁昌作为NVIDIA的重要合作伙伴,还可以首次了解NVIDA的尖端GPU技术和产品。
。
宁昌科依靠多年的行业经验和技术积累,对采用新GPU架构并符合用户标准的定制服务器产品进行了预研究。
Ning Chang认为,考虑到成熟服务器产品的开发周期,通过定制的预研究模式,用户不仅可以在新GPU产品上市后就批量获得基于此的定制AI服务器,还可以计划AI服务器技术路线提前与Ning Chang一起。
,以满足特定AI场景下企业未来的计算能力需求。
如今,通过提供定制服务,宁昌AI服务器已广泛用于知名的Internet和云计算公司,以支持AI场景,例如语义识别,图像分析,机器翻译和培训推理。
2020年10月,AI基准性能评估平台MLPerf的官方网站显示,配备NVIDIA T4 / A100 GPU的宁昌X640 G30 AI服务器在ResNet,BERT和DLRM等基准测试中获得了30项性能首位。