matlab gpu 计算支持可适用于运行nvidia cuda 的gpu -凯发k8网页登录

 

matlab gpu 计算支持可适用
于运行nvidia cuda 的gpu

在支持 nvidia cuda 的gpu 上执行 matlab 计算

 

无需成为 cuda® 程序员,matlab® 即可让您能够使用 nvidia® gpu 来加速 ai、深度学习和其他计算密集型分析。使用 matlab 和 parallel computing toolbox™,您可以:

  • 直接在 matlab 中调用 nvidia gpu,有 500 多个内置函数可供使用。
  • 使用 matlab worker 和 matlab parallel server™ 访问台式机、计算集群和云上的多gpu。
  • 使用 gpu coder™ 直接从 matlab 生成 cuda 代码,以便部署到数据中心、云和嵌入式设备。
  • 使用 gpu coder 从 matlab 生成 nvidia tensorrt™ 代码,实现低延迟和高吞吐量的推理。
  • 将 matlab ai 应用程序部署到配备 nvidia gpu的数据中心,与使用 matlab production server™ 的企业系统集成。

“我们的旧代码需要 40 分钟才能分析一个风洞试验;使用 matlab 和 gpu 后,现在的计算时间缩短到了一分钟之内。只用了 30 分钟就实现了在 gpu 上执行 matlab 算法 — 不需要低级 cuda 编程。”

nasa 的 christopher bahr

使用 matlab 开发、扩展和部署深度学习模型

matlab 可让一个用户实施端到端的工作流程,使用 deep learning toolbox™ 开发和训练深度学习模型。然后,可以通过 parallel computing toolbox 和 matlab parallel server 使用云和集群资源扩展训练,随后使用 gpu coder 部署到数据中心或嵌入式设备。

使用 gpu 开发深度学习和其他计算密集型分析

matlab 是端到端工作流程平台,适用于 ai 和深度学习开发。matlab 提供工具和应用程序,用于导入训练数据集、可视化和调试、利用gpu对cnn进行扩展训练和实现部署。

使用一行代码即可扩展到台式机、云和群集上的其他计算资源和 gpu 资源。


使用 gpubench 测试您自己的 cpu 和 gpu 硬件。

在 gpu 上扩展 matlab 只需极少的代码更改

使用 500 多个支持 cuda 的 matlab 函数,在 nvidia gpu 上运行 matlab 代码。使用工具箱中启用了 gpu 的函数,实现深度学习、机器学习、计算机视觉和信号处理等应用。parallel computing toolbox 提供 gpuarray,这是一个具有关联函数的特殊数组类型,可让您直接从 matlab 在支持 cuda 的 nvidia gpu 上执行计算,而无需学习低级 gpu 计算库。

工程师无需编写任何额外代码即可使用 gpu 资源,因此可以专注于应用本身而不是性能调优。

使用 parfor 和 spmd 等并行语言结构,可以在多个 gpu 上执行计算。在多个 gpu 上训练模型只需轻松调整训练选项。

借助 matlab,无需任何额外 c 编程,还可以将您的现有 cuda kernel集成到 matlab 应用程序。


部署从 matlab 生成的 cuda 代码,使用 tensorrt 实现推理部署

使用 gpu coder 从 matlab 代码生成优化的 cuda 代码,用于深度学习、嵌入式视觉和自主系统。生成的代码自动调用优化的 nvidia cuda 库,包括 tensorrt、cudnn 和 cublas,可在 nvidia gpu 上低延迟、高吞吐量地运行。将生成的代码作为源代码、静态库或动态库集成到您的项目,然后部署这些代码,从而可在 nvidia volta®、nvidia tesla®、nvidia jetson® 和 nvidia drive® 等 gpu 上运行。


网站地图