怎么用nvidia显卡 跑深度学习的模型
1、首先,你有一台电脑,操作系统为ubuntu18.04。
第一步:就是安装nvidia显卡的驱动,让显卡能正常工作。
(1)第一种方法:进入英伟达官网下载: https://www.nvidia.cn/Download/index.aspx?lang=cn
根据你的显卡类型选择:
下载以后安装就行
(2)第二种方法: 在终端输入:ubuntu-drivers devices
driver后面时对应的驱动
如果没有特别的需求,直接 安装推荐的驱动, sudo ubuntu-drivers autoinstall
第二步:进入官网安装CUDA 工具包
下载地址: https://developer.nvidia.com/cuda-toolkit-archive
NVIDIA® CUDA® 工具包提供了开发环境,可供创建经 GPU 加速的高性能应用。借助 CUDA 工具包,您可以在经 GPU 加速的嵌入式系统、台式工作站、企业数据中心、基于云的平台和 HPC 超级计算机中开发、优化和部署应用。此工具包中包含多个 GPU 加速库、多种调试和优化工具、一个 C/C++ 编译器以及一个用于在主要架构(包括 x86、Arm 和 POWER)上构建和部署应用的运行时库。
借助多 GPU 配置中用于分布式计算的多项内置功能,科学家和研究人员能够开发出可从单个 GPU 工作站扩展到配置数千个 GPU 的云端设施的应用。
记得修改环境变量,再运行命令:sudo vi ~/.bashrc
第三步:进入官网安装cudnn
下载地址: https://developer.nvidia.com/rdp/cudnn-archive
NVIDIA CUDA® 深度神经网络库 (cuDNN) 是经 GPU 加速的深度神经网络基元库。cuDNN 可大幅优化标准例程(例如用于前向传播和反向传播的卷积层、池化层、归一化层和激活层)的实施。
世界各地的深度学习研究人员和框架开发者都依赖 cuDNN 实现高性能 GPU 加速。借助 cuDNN,研究人员和开发者可以专注于训练神经网络及开发软件应用,而不必花时间进行低层级的 GPU 性能调整。cuDNN 可加速广泛应用的深度学习框架,包括 Caffe2、Chainer、Keras、MATLAB、MxNet、PyTorch 和 TensorFlow。如需获取经 NVIDIA 优化且已在框架中集成 cuDNN 的深度学习框架容器,请访问 NVIDIA GPU CLOUD 了解详情并开始使用。
第四步,安装TensorFlow-GPU
容器时如何调用GPU的,请看下面一篇博客
https://blog.csdn.net/xie_cinnamon/article/details/109037462