nvidia_docker

文章目录
  1. 1. GPU相关命令
  2. 2. nvidia-docker简介
  3. 3. 安装nvidia-docker
    1. 3.1. 使用镜像
    2. 3.2. 安装pytorch
  4. 4. 参考资料

GPU相关命令

查看当前GPU使用情况

nvidia-smi

设置使用哪个GPU

CUDA_VISIBLE_DEVICES=”1”

查看CUDA版本

nvcc –version

1
2
# 查看显卡版本
lspci | grep -i nvidia

nvidia-docker简介

Docker容器与平台无关, 但也与硬件无关.这有一个问题, 当使用专门的硬件,如NVIDIA显卡时, 需要内核模块和用户级别的库来操作. 因此docker本身并不支持容器内的NVIDIA显卡.

NVIDIA提供了 nvidia-docker:

  1. 驱动无关的CUDA镜像
  2. 一个docker命令行包装, 在启动时将驱动程序的用户模式组件和GPU设备装入容器

安装nvidia-docker

1
2


使用镜像

镜像仓库https://hub.docker.com/r/nvidia/cuda

1
2
3
4
5
6
7
8
9
10
CUDA镜像的三种风格:
base: 基础镜像
runtime: 扩展于base, 增加了CUDA toolkit 共享库
devel: 扩展于runtime, 增加了debugging工具/编译器工具链/头文件和静态库


# 选择版本后, 拉取nvidia/cuda镜像
nvidia-docker pull nvidia/cuda:10.0-cudnn7-devel-ubuntu18.04
# 查看拉取镜像的版本
nvidia-docker run --rm -ti 镜像名称 nvcc --version

安装pytorch

获取安装文件https://pytorch.org/get-started/locally/

1
根据上面的版本, 选择1.1, linux, python3.7

参考资料