🖥
WSL2 の Ubuntu に NVIDIA CUDA ツールキットを入れて PyTorch を試してみた
スクラッチで LLM を作ってみたいと思い、Google Colab の無料枠で試してみたものの、ディスク容量が不足して断念しました。
そこで今回は、事前準備の環境構築として、WSL2 の Ubuntu に NVIDIA CUDA ツールキットを入れて PyTorch を試してみました。
NVIDIA CUDA ツールキットをインストール
こちらのサイトで、下記のようにターゲットプラットフォームを選択すると、インストール方法が表示されます。
$ wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb
$ sudo dpkg -i cuda-keyring_1.1-1_all.deb
$ rm cuda-keyring_1.1-1_all.deb
$ sudo apt-get update
$ sudo apt-get -y install cuda-toolkit-12-8
ツールキットのパスを通す
こちらのドキュメントを参考に、パスを通します。
$ cat <<"EOF" >> ~/.bashrc
export PATH=/usr/local/cuda/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
EOF
$ source ~/.bashrc
$ nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2025 NVIDIA Corporation
Built on Fri_Feb_21_20:23:50_PST_2025
Cuda compilation tools, release 12.8, V12.8.93
Build cuda_12.8.r12.8/compiler.35583870_0
$ nvidia-smi
Mon Apr 28 09:07:29 2025
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 575.51.02 Driver Version: 576.02 CUDA Version: 12.9 |
|-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 NVIDIA GeForce RTX 4060 On | 00000000:01:00.0 Off | N/A |
| 0% 28C P8 N/A / 115W | 734MiB / 8188MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
CUDA 対応 PyTorch をインストール
こちらのサイトで、下記のように選択すると、インストール方法が表示されます。
$ python3 -m venv venv
$ . ./venv/bin/activate
$ pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
PyTorch の動作確認
# バージョン表示
$ python -c "import torch; print(torch.__version__) "
2.7.0+cu128
# GPU 名
$ python -c "import torch; print(torch.cuda.get_device_name(0))"
NVIDIA GeForce RTX 4060
# CUDA バージョン
$ python -c "import torch; print(torch.version.cuda)"
12.8
参考
Discussion