matlab gpu 计算支持可适用
于运行nvidia cuda 的gpu
在支持 nvidia cuda 的gpu 上执行 matlab 计算
在支持 nvidia cuda 的gpu 上执行 matlab 计算
无需成为 cuda® 程序员,matlab® 即可让您能够使用 nvidia® gpu 来加速 ai、深度学习和其他计算密集型分析。使用 matlab 和 parallel computing toolbox™,您可以:
“我们的旧代码需要 40 分钟才能分析一个风洞试验;使用 matlab 和 gpu 后,现在的计算时间缩短到了一分钟之内。只用了 30 分钟就实现了在 gpu 上执行 matlab 算法 — 不需要低级 cuda 编程。”
nasa 的 christopher bahr
matlab 可让一个用户实施端到端的工作流程,使用 deep learning toolbox™ 开发和训练深度学习模型。然后,可以通过 parallel computing toolbox 和 matlab parallel server 使用云和集群资源扩展训练,随后使用 gpu coder 部署到数据中心或嵌入式设备。
matlab 是端到端工作流程平台,适用于 ai 和深度学习开发。matlab 提供工具和应用程序,用于导入训练数据集、可视化和调试、利用gpu对cnn进行扩展训练和实现部署。
使用一行代码即可扩展到台式机、云和群集上的其他计算资源和 gpu 资源。
使用 500 多个支持 cuda 的 matlab 函数,在 nvidia gpu 上运行 matlab 代码。使用工具箱中启用了 gpu 的函数,实现深度学习、机器学习、计算机视觉和信号处理等应用。parallel computing toolbox 提供 gpuarray,这是一个具有关联函数的特殊数组类型,可让您直接从 matlab 在支持 cuda 的 nvidia gpu 上执行计算,而无需学习低级 gpu 计算库。
工程师无需编写任何额外代码即可使用 gpu 资源,因此可以专注于应用本身而不是性能调优。
使用 parfor 和 spmd 等并行语言结构,可以在多个 gpu 上执行计算。在多个 gpu 上训练模型只需轻松调整训练选项。
借助 matlab,无需任何额外 c 编程,还可以将您的现有 cuda kernel集成到 matlab 应用程序。
使用 gpu coder 从 matlab 代码生成优化的 cuda 代码,用于深度学习、嵌入式视觉和自主系统。生成的代码自动调用优化的 nvidia cuda 库,包括 tensorrt、cudnn 和 cublas,可在 nvidia gpu 上低延迟、高吞吐量地运行。将生成的代码作为源代码、静态库或动态库集成到您的项目,然后部署这些代码,从而可在 nvidia volta®、nvidia tesla®、nvidia jetson® 和 nvidia drive® 等 gpu 上运行。