PyTorchの公式入門を読む
PyTorchの公式チュートリアルを読みました。
以下、読みながら書いたメモです。
Quick start
Data
torch.utils.data.DataLoader
を使えばデータをロード(前処理)できる。
TorchText
, TorchVision
, TorchAudio
などが学習用のデータセットを持っていて、ダウンロードしてくれる。
Model
torch.nn
を使えばモデルを作れる。
import torch.nn as nn
class NeuralNetwork(nn.Module):
def __init__(self, input_size, hidden_size, num_classes):
super(NeuralNetwork, self).__init__()
self.l1 = nn.Linear(input_size, hidden_size)
self.relu = nn.ReLU()
self.l2 = nn.Linear(hidden_size, num_classes)
def forward(self, x):
out = self.l1(x)
out = self.relu(out)
out = self.l2(out)
return out
Loss and optimizer
def train(dataloader, model, loss_fn, optimizer):
size = len(dataloader.dataset)
model.train()
for batch, (X, y) in enumerate(dataloader):
X, y = X.to(device), y.to(device)
# Compute prediction error
pred = model(X)
loss = loss_fn(pred, y)
# Backpropagation
optimizer.zero_grad()
loss.backward()
optimizer.step()
if batch % 100 == 0:
loss, current = loss.item(), batch * len(X)
print(f"loss: {loss:>7f} [{current:>5d}/{size:>5d}]")
def test(dataloader, model, loss_fn):
size = len(dataloader.dataset)
num_batches = len(dataloader)
model.eval()
test_loss, correct = 0, 0
with torch.no_grad():
for X, y in dataloader:
X, y = X.to(device), y.to(device)
pred = model(X)
test_loss += loss_fn(pred, y).item()
correct += (pred.argmax(1) == y).type(torch.float).sum().item()
test_loss /= num_batches
correct /= size
print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f} \n")
Tensors
PyTorchではTensorを使ってデータを表現する。Tensorは多次元配列で、PyTorchのTensorはNumPyのndarrayと似ていますが、GPU上で動作させることができるという点が異なる。Tensorは、PyTorchのTensorクラスのインスタンス。
data = [[1, 2],[3, 4]]
x_data = torch.tensor(data)
np_array = np.array(data)
x_np = torch.from_numpy(np_array)
ones
やzeros
などのメソッドを使って、特定の値で初期化されたTensorを作ることもできる。
shape = (2,3,)
rand_tensor = torch.rand(shape)
ones_tensor = torch.ones(shape)
zeros_tensor = torch.zeros(shape)
操作方法はNumPyとほぼ同じである。
tensor @ tensor.T # 積
tensor * tensor # 内積
また、NumPyに変換して操作することもできる。
tensor.numpy() # Bridge to NumPy
torch.from_numpy(np_array) # Bridge to PyTorch
属性
-
shape
: Tensorの形状を表すタプル -
dtype
: Tensorのデータ型 -
device
: Tensorがどのデバイスにあるかを表す文字列
Datasets and dataloaders
Build in datasets
PyTorchの各モジュールにビルドインされたデータセットを利用することができる。
-
torchvision.datasets
: 画像データセット -
torchtext.datasets
: テキストデータセット -
torchaudio.datasets
: 音声データセット
import torch
from torch.utils.data import Dataset
from torchvision import datasets
from torchvision.transforms import ToTensor
import matplotlib.pyplot as plt
training_data = datasets.FashionMNIST(
root="data", # データを保存するディレクトリ
train=True, # 訓練データ or テストデータ
download=True, # データが存在しない場合にダウンロードするかどうか
transform=ToTensor() # データをTensorに変換する
)
test_data = datasets.FashionMNIST(
root="data",
train=False,
download=True,
transform=ToTensor()
)
Data transforms
ToTensor
PIL ImageやNumPyのndarrayをTensorに変換する。
import torch
from torchvision import datasets
from torchvision.transforms import ToTensor
training_data = datasets.FashionMNIST(
root="data",
train=True,
download=True,
transform=ToTensor()
)
Lambda transform
ラムダ式を使って独自の変換を定義する。
import torch
from torchvision import datasets
from torchvision.transforms import Lambda
to_tensor = Lambda(lambda x: torch.tensor(x))
training_data = datasets.FashionMNIST(
root="data",
train=True,
download=True,
transform=to_tensor
)
Build the neural network
ニューラルネットワークを構築するには、torch.nn
パッケージを使用する。nn
は、ニューラルネットワークを構築するための便利なツールを提供する。
レイヤー
-
nn.Flatten
レイヤーは、入力を平坦化する。これは、nn.Linear
レイヤーに入力するために必要。 -
nn.Linear
レイヤーは、線形変換を行う。nn.Linear(in_features, out_features)
という形式で、in_features
は入力の特徴量の数、out_features
は出力の特徴量の数を表す。 -
nn.ReLU
レイヤーは、活性化関数として使用される。nn.ReLU()
という形式で、引数はない。 -
nn.Sequential
レイヤーは、複数のレイヤーを順番に実行するために使用される。nn.Sequential(*layers)
という形式で、layers
はレイヤーのリスト。 -
nn.Softmax
レイヤーは、出力を確率に変換する。nn.Softmax(dim)
という形式で、dim
は確率を計算する次元を表す。
Autograd
ニューラルネットワークを学習させるとき、逆伝播アルゴリズムでは、ネットワークのパラメータに対する損失関数の勾配を計算する。これは、ネットワークのパラメータを更新するために必要である。PyTorchでは、autograd
パッケージがこの自動微分の計算を行う。autograd
パッケージは、Tensorのすべての演算に対して勾配を自動的に計算する。このパッケージは、ネットワークの学習を定義するために、Tensor
の演算を記録することで動作する。この記録を用いて、最終的な勾配を計算するために、backward()
メソッドを呼び出すことができる。このbackward()
メソッドは、勾配を計算するために、Tensor
のgrad_fn
属性を辿ることで動作する。Tensor
がユーザーによって作成された場合、grad_fn
はNone
である。
Tensor
の勾配を計算するために、requires_grad
属性をTrue
に設定する。計算が終了した後に、backward()
メソッドを呼び出すことで、勾配を自動的に計算することができる。この勾配は、Tensor
のgrad
属性に蓄積される。勾配の蓄積を防ぐために、Tensor
のgrad
属性を明示的にリセットする必要がある。autograd
パッケージは、勾配の計算を記録するために、forward
の計算グラフを構築する。このグラフは、Tensorのgrad_fn
属性を辿ることで、復元することができる。このグラフは、Tensorのrequires_grad
属性がTrue
である場合にのみ、構築される。
勾配計算
backward()
を実行すれば、勾配を自動計算できる。
Optimizing model parameters
モデルの学習では、勾配降下法を用いてパラメータを最適化する。
Hyperparameters
- Number of epochs: 1 epoch = トレーニングデータを1周する
- Batch size: 一度に学習するデータ数
- learning rate: 一度にパラメータを更新する量
各epochの学習の流れ
- トレーニング
- パラメータを更新し、収束させようとする。
- 検証・テスト
- テストデータを用いて、モデルの性能を評価する。
損失関数
- モデルの性能を評価する関数
- 正解ラベルと予測ラベルの差を計算する
- これを最小化したい
- 例
-
nn.MSELoss()
: 平均二乗誤差 -
nn.NLLLoss()
: 負の対数尤度 -
nn.CrossEntropyLoss()
: クロスエントロピー
-
最適化アルゴリズム
- パラメータを更新するアルゴリズム
- 例
-
torch.optim
.SGD()
: 確率的勾配降下法
-
optimizer = torch.optim.SGD(model.parameters(), lr=1e-3, momentum=0.9)
Save and load models
PyTorchで学習したモデルはファイルに保存できる。
Save
torch.save(model.state_dict(), PATH)
Load
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.eval()
Discussion