登場人物は5人.
- GPU Kernel Mode Driver (
nvidia.ko
) - CUDA User Mode Driver ("CUDA driver",
libcuda.so
) - Docker
- CUDA Toolkit and Runtime ("CUDA Toolkit")
- cuDNN
CUDA driver / CUDA Toolkit / cuDNNに気を使う事が多い。配置場所は以下の通り ref.
- HostOS: CUDA Driver
- Container: CUDA Toolkit & cuDNN
クラウドコンテナ実行環境の場合、インスタンスのCUDA driver (NVIDIA driver) バージョンを確認して、使うcontainerのCUDA Toolkit & cuDNNバージョンを合わせること.
PyTorchであれば 1.6.0-cuda10.1-cudnn7-runtime
といった感じでCUDA ToolkitとcuDNN込みのimageを配布しているので、これに乗っかる.
Dockerは19.03<=で--gpus
オプション対応なので標準的な環境なら特に対処必要なし.