2018年8月13日 – NVIDIA今日推出NVIDIA Turing™ GPU架构,为计算机图形领域带来革新。
Turing架构是自2006年发明CUDA GPU以来的重大飞跃,其采用了可加速光线追踪的全新RT Core,以及面向AI推理的Tensor Core,首次使实时光线追踪成为可能。
这两者结合更强大的模拟计算和光栅化功能,迎来了新一代混合渲染,能够满足价值2500亿美元的视效行业需求。混合渲染可实现影院级的交互式体验、基于神经网络的全新惊艳效果、以及在高度复杂模型上的流畅交互。
NVIDIA还推出了率先采用Turing架构的产品–NVIDIA® Quadro® RTX™ 8000、Quadro RTX 6000 及 Quadro RTX 5000 GPU,其将为各行各业中约5000万设计师和艺术家的工作带来变革。
NVIDIA创始人兼首席执行官黄仁勋在年度SIGGRAPH大会期间的演讲中提到:“Turing架构是NVIDIA十多年来在计算机图形领域最为重要的创新。混合渲染将为行业带来变革,开启令人惊叹的可能性,通过更美观的设计、更丰富的娱乐、以及更多的互动体验来改善我们的生活。实时光线追踪的到来也是我们全行业的梦想成真。”
Turing架构是NVIDIA的第八代GPU架构,使全球首款光线追踪GPU成为可能,也是超过一万个工程年的努力成果。借助Turing的混合渲染功能,应用能够以相当于早前Pascal™一代6倍的速度对物理世界进行模拟。
为助力开发者充分利用这些功能,NVIDIA通过全新AI、光线追踪和模拟SDK,强化了其RTX开发平台,并宣布成百上千万名设计师、艺术家和科学家所采用的主要图形应用均计划通过RTX开发平台充分发挥Turing架构的特性。
分析公司JPR首席执行官Jon Peddie表示:“这是计算机图形学史上的一大重要时刻。NVIDIA实现了实时光线追踪,而此前我们都认为这可能要到五年之后才能实现。”
RT Core加速实时光线追踪
Turing架构采用了名为RT Core的专用光线追踪处理器,能够以高达每秒10 GigaRays的速度对光线和声音在3D环境中的传播进行加速计算。Turing架构将实时光线追踪运算加速至早前Pascal架构的25倍,且GPU节点可用于电影效果的最终帧渲染,其速度是CPU节点的30倍之多。
Cinesite首席技术官Michele Sciolette表示:“Cinesite很荣幸能够与Autodesk和NVIDIA合作,使Arnold能够用于GPU渲染,但如此令人叹为观止的效果仍超出了我们的预期。这意味着我们能够在更高画质的场景中更快速、更频繁地进行迭代。这将彻底改变我们艺术家的工作方式。”
利用强大的Tensor Core实现AI加速
Turing架构还采用了Tensor Core–可加速深度学习训练与推理的处理器,能够提供每秒高达500万亿次Tensor运算。
如此高水平的性能可支持AI增强型功能,助力创建具有强大新功能的应用。这些新功能包括DLAA(深度学习抗锯齿),这是高画质动态图像生成领域内的一项突破,以及去噪、分辨率缩放和视频调速。
这些特性是NVIDIA NGX™ 软件开发套件的一部分,这种全新深度学习技术堆栈可助力开发者通过预先训练的网络,轻松地在应用中集成加速且增强的图形、照片成像和视频处理。
采用全新Turing流式多处理器实现更快速的模拟和光栅化
基于Turing架构的GPU采用了流式多处理器(SM)架构,该架构新增了与浮点数据路径并行执行的整数执行单元,以及带宽为早前架构两倍的全新统一缓存架构。
结合可变速率着色等全新图形技术,Turing SM实现了前所未有的单核性能水平。凭借多达4,608个CUDA内核,Turing架构可支持高达16万亿次浮点运算,同时支持每秒16万亿次整数运算。
开发者可利用NVIDIA的CUDA 10、FleX和PhysX SDK来创建复杂的模拟,例如用于科学可视化的粒子或流体动力学、虚拟环境和特殊效果。
供货
最先采用Turing架构的Quadro GPU将于第四季度开始供货。
关于NVIDIA
NVIDIA(纳斯达克股票代码:NVDA)在1999年发明的GPU激发了PC游戏市场的增长,重新定义了现代计算机显卡,并且对并行计算进行了革新。最近,通过将GPU作为可以感知和理解世界的计算机、机器人乃至自动驾驶汽车的大脑,GPU深度学习再度点燃了全新的计算时代–现代人工智能。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。