Nvidia近日宣布推出一款名为TensorRT-LLM的新开源软件套件,扩展了Nvidia GPU上大型语言模型优化的功能,并突破了部署之后人工智能推理性能的极限。
NVIDIA L40S GPU 结合 NVIDIA Omniverse 平台,将加速计算密集型的复杂应用,推动生成式 AI 发展并开启更多可能性。
Nvidia今天宣布广泛推出下一代DGX超级计算平台Nvidia DGX Cloud,使企业能够访问Oracle Cloud Infrastructure及其云服务上的数千个GPU。
工信部信息通信发展司司长谢存表示,将增强自主创新能力,加强CPU、GPU和服务器等重点产品研发,加速新技术、新产品落地应用
我们将通过《NVIDIA 加速计算,百万倍加速行业应用》系列文章,为您详解 NVIDIA 如何通过数据中心规模的全栈加速计算,助力多个行业实现百万倍计算性能飞跃,高效解决人类挑战。
英伟达正积极拥抱一种新的计算范式,利用大规模并行计算机系统为新一代应用程序提供服务。而这场变化的开端,主要始于以色列。
针对不同应用场景,象帝先GPU发挥通用赋能优势,与各种系统配合的成熟度较高,从而提升企业用户的生产效率。
自2017年AMD回归数据中心处理器,到去年已经提供了第四代AMD EPYC(霄龙)处理器,帮助云、企业和高性能计算等关键应用负载。今年,AMD首席执行官苏姿丰(Lisa Su)也没有让我们失望,抢先带来了包括CPU和GPU在内的一系列更新。
最近于汉堡举行的ISC23超级计算大会上,英特尔再次阐明了对于Falcon Shores的规划,确认该设备就是纯GPU计算引擎,而且目前发布混合XPU的时机还不成熟。
Movidius技术已在第13代酷睿芯片中有所应用,并将成为下一代消费级芯片的主流配置。
英特尔曾发下宏愿,立场将CPU、GPU和内存芯片塞进统一的XPU封装当中。但如今,这个目标已然宣告失败。
台积电、ASML和Synopsys都在使用英伟达加速器来加速或支持计算光刻技术。与此同时,KLA Group、Applied Materials和日立也在英伟达的并行处理芯片上运行深度学习代码,借此进行电子束与光学晶圆检测。
在一年前的谷歌I/O 2022大会上,谷歌向全世界展示了其内部机器学习中心使用的8-pod TPUv4加速器,包含总计32768个第四代原研矩阵数学加速器。
在英伟达,负责引导研究朝着应用、而非纯学术项目前进的,是斯坦福大学计算机科学与电气工程兼职教授,公司首席科学家、高级研究副总裁以及GPU、网络与CPU芯片设计师Bill Dally。
Nvidia的GPU是业内最常见、最强大的。除了硬件之外,NVIDIA还通过软件工具推进Nvidia的普及,这些软件工具涵盖了从边缘推理到自动驾驶再到医学成像的各个领域,潜力无限。
微软公司Azure高性能计算和人工智能群组首席项目经理Matt Vegas在博客文章中写道:“为我们的客户兑现高级人工智能的承诺,这需要超级计算基础设施、服务和专业知识,以应对呈指数级增长的规模和最新模型的复杂性。