🤑

PyTorchの公式入門を読む

2022/11/24に公開

PyTorchの公式チュートリアルを読みました。
以下、読みながら書いたメモです。

Quick start

Data

torch.utils.data.DataLoaderを使えばデータをロード(前処理)できる。
TorchText, TorchVision, TorchAudioなどが学習用のデータセットを持っていて、ダウンロードしてくれる。

Model

torch.nnを使えばモデルを作れる。

import torch.nn as nn

class NeuralNetwork(nn.Module):
    def __init__(self, input_size, hidden_size, num_classes):
        super(NeuralNetwork, self).__init__()
        self.l1 = nn.Linear(input_size, hidden_size)
        self.relu = nn.ReLU()
        self.l2 = nn.Linear(hidden_size, num_classes)

    def forward(self, x):
        out = self.l1(x)
        out = self.relu(out)
        out = self.l2(out)
        return out

Loss and optimizer

def train(dataloader, model, loss_fn, optimizer):
    size = len(dataloader.dataset)
    model.train()
    for batch, (X, y) in enumerate(dataloader):
        X, y = X.to(device), y.to(device)

        # Compute prediction error
        pred = model(X)
        loss = loss_fn(pred, y)

        # Backpropagation
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        if batch % 100 == 0:
            loss, current = loss.item(), batch * len(X)
            print(f"loss: {loss:>7f}  [{current:>5d}/{size:>5d}]")
def test(dataloader, model, loss_fn):
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    model.eval()
    test_loss, correct = 0, 0
    with torch.no_grad():
        for X, y in dataloader:
            X, y = X.to(device), y.to(device)
            pred = model(X)
            test_loss += loss_fn(pred, y).item()
            correct += (pred.argmax(1) == y).type(torch.float).sum().item()
    test_loss /= num_batches
    correct /= size
    print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f} \n")

Tensors

PyTorchではTensorを使ってデータを表現する。Tensorは多次元配列で、PyTorchのTensorはNumPyのndarrayと似ていますが、GPU上で動作させることができるという点が異なる。Tensorは、PyTorchのTensorクラスのインスタンス。

data = [[1, 2],[3, 4]]
x_data = torch.tensor(data)

np_array = np.array(data)
x_np = torch.from_numpy(np_array)

oneszerosなどのメソッドを使って、特定の値で初期化されたTensorを作ることもできる。

shape = (2,3,)
rand_tensor = torch.rand(shape)
ones_tensor = torch.ones(shape)
zeros_tensor = torch.zeros(shape)

操作方法はNumPyとほぼ同じである。

tensor @ tensor.T # 積
tensor * tensor # 内積

また、NumPyに変換して操作することもできる。

tensor.numpy() # Bridge to NumPy
torch.from_numpy(np_array) # Bridge to PyTorch

属性

  • shape: Tensorの形状を表すタプル
  • dtype: Tensorのデータ型
  • device: Tensorがどのデバイスにあるかを表す文字列

Datasets and dataloaders

Build in datasets

PyTorchの各モジュールにビルドインされたデータセットを利用することができる。

import torch
from torch.utils.data import Dataset
from torchvision import datasets
from torchvision.transforms import ToTensor
import matplotlib.pyplot as plt


training_data = datasets.FashionMNIST(
    root="data", # データを保存するディレクトリ
    train=True, # 訓練データ or テストデータ
    download=True, # データが存在しない場合にダウンロードするかどうか
    transform=ToTensor() # データをTensorに変換する
)

test_data = datasets.FashionMNIST(
    root="data",
    train=False,
    download=True,
    transform=ToTensor()
)

Data transforms

ToTensor

PIL ImageやNumPyのndarrayをTensorに変換する。

import torch
from torchvision import datasets
from torchvision.transforms import ToTensor

training_data = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=ToTensor()
)

Lambda transform

ラムダ式を使って独自の変換を定義する。

import torch
from torchvision import datasets
from torchvision.transforms import Lambda

to_tensor = Lambda(lambda x: torch.tensor(x))

training_data = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=to_tensor
)

Build the neural network

ニューラルネットワークを構築するには、torch.nn パッケージを使用する。nn は、ニューラルネットワークを構築するための便利なツールを提供する。

レイヤー

  • nn.Flatten レイヤーは、入力を平坦化する。これは、nn.Linear レイヤーに入力するために必要。
  • nn.Linear レイヤーは、線形変換を行う。nn.Linear(in_features, out_features) という形式で、in_features は入力の特徴量の数、out_features は出力の特徴量の数を表す。
  • nn.ReLU レイヤーは、活性化関数として使用される。nn.ReLU() という形式で、引数はない。
  • nn.Sequential レイヤーは、複数のレイヤーを順番に実行するために使用される。nn.Sequential(*layers) という形式で、layers はレイヤーのリスト。
  • nn.Softmax レイヤーは、出力を確率に変換する。nn.Softmax(dim) という形式で、dim は確率を計算する次元を表す。

Autograd

ニューラルネットワークを学習させるとき、逆伝播アルゴリズムでは、ネットワークのパラメータに対する損失関数の勾配を計算する。これは、ネットワークのパラメータを更新するために必要である。PyTorchでは、autogradパッケージがこの自動微分の計算を行う。autogradパッケージは、Tensorのすべての演算に対して勾配を自動的に計算する。このパッケージは、ネットワークの学習を定義するために、Tensorの演算を記録することで動作する。この記録を用いて、最終的な勾配を計算するために、backward()メソッドを呼び出すことができる。このbackward()メソッドは、勾配を計算するために、Tensorgrad_fn属性を辿ることで動作する。Tensorがユーザーによって作成された場合、grad_fnNoneである。

Tensorの勾配を計算するために、requires_grad属性をTrueに設定する。計算が終了した後に、backward()メソッドを呼び出すことで、勾配を自動的に計算することができる。この勾配は、Tensorgrad属性に蓄積される。勾配の蓄積を防ぐために、Tensorgrad属性を明示的にリセットする必要がある。autogradパッケージは、勾配の計算を記録するために、forwardの計算グラフを構築する。このグラフは、Tensorのgrad_fn属性を辿ることで、復元することができる。このグラフは、Tensorのrequires_grad属性がTrueである場合にのみ、構築される。

勾配計算

backward()を実行すれば、勾配を自動計算できる。

Optimizing model parameters

モデルの学習では、勾配降下法を用いてパラメータを最適化する。

Hyperparameters

  • Number of epochs: 1 epoch = トレーニングデータを1周する
  • Batch size: 一度に学習するデータ数
  • learning rate: 一度にパラメータを更新する量

各epochの学習の流れ

  1. トレーニング
    • パラメータを更新し、収束させようとする。
  2. 検証・テスト
    • テストデータを用いて、モデルの性能を評価する。

損失関数

  • モデルの性能を評価する関数
  • 正解ラベルと予測ラベルの差を計算する
  • これを最小化したい
    • nn.MSELoss(): 平均二乗誤差
    • nn.NLLLoss(): 負の対数尤度
    • nn.CrossEntropyLoss(): クロスエントロピー

最適化アルゴリズム

  • パラメータを更新するアルゴリズム
optimizer = torch.optim.SGD(model.parameters(), lr=1e-3, momentum=0.9)

Save and load models

PyTorchで学習したモデルはファイルに保存できる。

Save

torch.save(model.state_dict(), PATH)

Load

model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.eval()

Discussion

ログインするとコメントできます