🐰

【初心者】ネコでも分かる「簡単な分類AI」の作り方【Python】

2021/08/10に公開6

今回は、Python を使って簡単な人工知能(AI)を作ってみます。
初心者向けに超分かりやすく解説します。
なお、この記事の内容は YouTube で動画にもしています。併せて見ていただくと嬉しいです。

https://youtu.be/h-ENshIbDK0

みなさんの理解が一歩でも進めば嬉しいです。


Created by NekoAllergy

6 つのステップに分けて解説します


この記事の全体像

Step1
まずは、必要なライブラリを読み込みます。
Step2
次に、学習に使うサンプルデータを読み込んで、形をいい感じに整えます。
Step3
そして、Neural Network のモデルを作成します。
Step4
作ったモデルにデータを渡して、学習をさせます。
Step5
学習が完了したら、そのモデルが正しく予測できるかを確認します。
Step6
最後に学習過程を表示してみます。

わからない単語があっても大丈夫です。1 つ 1 つは難しいことはしていません。それぞれ順を追って解説します。

プログラムの全体像

後で解説するので読み飛ばしても構いません。

ソースコード全文
sklearn-nn-iris.py
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

from sklearn import datasets
from sklearn.neural_network import MLPClassifier
from sklearn.model_selection import train_test_split

# Load datasets
iris = datasets.load_iris()

# Load as pandas.DataFrame
df_iris = pd.DataFrame(data=iris.data, columns=iris.feature_names)

# Add target
df_iris['target'] = iris.target

# Split the dataset
data_train, data_test, target_train, target_test = train_test_split(
    iris.data, iris.target, test_size=0.2, random_state=0)

# Define Neural Neowork model
clf = MLPClassifier(hidden_layer_sizes=10, activation='relu',
                    solver='adam', max_iter=1000)

# Lerning model
clf.fit(data_train, target_train)

# Calculate prediction accuracy
print(clf.score(data_train, target_train))

# Predict test data
print(clf.predict(data_test))

# Show loss curve
plt.plot(clf.loss_curve_)
plt.title("Loss Curve")
plt.xlabel("Iteration")
plt.ylabel("Loss")
plt.grid()
plt.show()

Step1: ライブラリの読み込み

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

from sklearn import datasets
from sklearn.neural_network import MLPClassifier
from sklearn.model_selection import train_test_split

今回は上記の 6 つのライブラリを使います。

ライブラリとは?

ライブラリとは、賢い人が作ったプログラムをすぐに使えるようにした便利ツールです。今回のプログラムで必要になるライブラリ 6 つを読み込みましょう。


ライブラリを使うと簡単にプログラムが書ける!

  1. Numpy
    たくさんの数値(配列)を扱うのに便利なライブラリです。
  2. Pandas
    データを表として扱います。データの変換などがやりやすくなります。
  3. Matplotlib
    データや結果を図にして可視化するために使います。
  4. Sklearn.datasets
    このライブラリから、今回学習に使うサンプルのデータをとってきます。
  5. Sklearn.neural_network.MLPClassifier
    今回使う【ニューラルネットワーク】というアルゴリズムです。
  6. Sklearn.model_selection.train_test_split
    【訓練データ】と【テストデータ】を簡単に分けることができるライブラリです。

これら 6 つのライブラリを読み込むことで、AI を簡単に作ることができます。ライブラリに、機械学習のプログラム作成を助けてもらいましょう。


6 つのライブラリを import して使えるようにする


STEP1 のまとめ

Step2: データの準備

# Load datasets
iris = datasets.load_iris()

まずは、今回学習するデータを用意します。今回は、Sklearn というライブラリに含まれているサンプルの 【iris】(アイリス)というデータセット を使います。datasets の load_iris 関数を使って iris データセットを読み込み、それを iris という変数に入れます。

iris データセットには、アヤメというのお花の情報が入っています。このデータセットにはアヤメの 3 つの品種について、【花びらの長さ】など実際に計測した情報がたくさん含まれています。


iris データセットには花の情報が入っている

この 3 種類の花を正しく分類することが、今回の機械学習プログラムのゴールになります。 Python を使って AI(モデル)を作り、この花の種類が正しく分類できるように頑張りましょう!


今回の目標は iris の種類を分類する AI を完成させること

ちょっと脱線

プログラムには書いていませんが、この iris データセットを調べて、もう少し詳しくなりましょう。まず、この変数 iris がどんなデータかを確認してみましょう。type()関数を使って、iris の型を確認できます。

型の確認
print(type(iris))
結果
<class 'sklearn.utils.Bunch'>

結果のように、scikit-learn に含まれているデータセットは全て Bunchs 型という型になっています。

Bunchs 型って?

詳しい説明は省きますが、Bunchs 型とは、Python で使える普通のリスト型や辞書型よりも便利 な使い方ができる型です。


Bunchs 型は便利な型



次に、keys()関数を使って、iris で使える【キー】の一覧を確認します。

キーの確認
print(iris.keys())
結果
dict_keys(['data', 'target', 'target_names', 'DESCR', 'feature_names', 'filename'])

['data', 'target', 'target_names', 'DESCR', 'feature_names', 'filename']という 6 つが使えることがわかりました。


iris データは 6 つのキーが使える

こんな感じで使います

これらのキーは、iris.data のように、iris の後に「.」ドットをつけることで呼び出すことができます。

iris.data
iris.target
iris.DESCR
iris.feature_names
iris.target_names
iris.filename


ひとつずつ見ていきましょう。

iris.data って?

iris.data には【データ】が入っています。中に何が入っているのか確認してみましょう。

iris.dataの中身を確認
print(iris.data)
結果
array([[5.1, 3.5, 1.4, 0.2],
       [4.9, 3. , 1.4, 0.2],
       [4.7, 3.2, 1.3, 0.2],
       [4.6, 3.1, 1.5, 0.2],
       [5. , 3.6, 1.4, 0.2],
       [5.4, 3.9, 1.7, 0.4],
       [4.6, 3.4, 1.4, 0.3],
                ,
                ,
                ,
            (150行続く)
                ,
                ,
                ,
       [5. , 3.4, 1.5, 0.2],
       [4.4, 2.9, 1.4, 0.2]])

中身はこんな感じです。たくさんの数字が並んでいます。

図解


iris.data の中身は数値が並んでいる


さてまずは、type()関数を使って、iris.data の型を確認します。

iris.dataの型を確認
print(type(iris.data))
結果
<class 'numpy.ndarray'>

結果は<class 'numpy.ndarray'>なので、numpy の中の ndarray 型ということが分かりました。つまり、numpy のいろいろな便利な関数を使うことができます。


shape()関数を使うと、データが全部で何個あるのか、どんな形をしているのかを確認できます。

iris.dataの型を確認
print(iris.data.shape)
結果
(150, 4)

(150, 4)は、(行, 列)を表しているので、150 行、4 列と分かります。4 つの特徴(数値)をもったデータが 150 個並んでいるようです。

図解


iris.data の型と形がわかった


iris.target って?

同様に、iris.target についても見ていきましょう。iris.target には【正解ラベル】が入っています。正解ラベルとは、最終的に予測して導き出したい値です。今回は AI(機械学習)を使って、この target の値を予測することがゴールとなります。

中身を見てみましょう。

iris.targetの中身を確認
print(iris.target)
結果
array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
       0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
       0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
       1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
       1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,
       2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,
       2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2])

中身はこんな感じです。たくさんの 0 と 1 と 2 が並んでいます。iris.target に入っている正解ラベル 0, 1, 2 は、【3 つのどの品種のアヤメなのか】を数値として表しています。

先ほどの iris.data を学習して、最終的には、0 の品種なのか、1 の品種なのか、2 の品種なのかを予測して分類します。

図解


1 つずつに 0 か 1 か 2 のラベルがついている。これが正解ラベルとなる。


最終的に作りたい AI は、この iris.target の値を正確に言い当てる AI


さて、type()関数を使って、iris.target の型を確認してみましょう。

iris.targetの型を確認
print(type(iris.data))
結果
<class 'numpy.ndarray'>

こちらもさっきと同じで<class 'numpy.ndarray'>と分かりました。

shape()関数を使ってデータの形を確認すると、150 行、1 列と分かります。

iris.targetの型を確認
print(iris.target.shape)
結果
(150, )
図解


iris.target の型と形がわかった


なんとなくデータのイメージが掴めてきたでしょうか?

iris.feature_names って?

iris.feature_names には、さっきの【4 つの特徴とはどんな情報か】が書かれています。
iris.feature_names の中に何が入っているかを確認してみましょう。

iris.feature_namesの中身を確認
print(iris.feature_names)
結果
['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']

['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']らしいです。

つまり、先ほどの iris.data の数値には、花びらの長さ、花びらの幅、がく片の長さ、がく片の幅という 4 つの特徴が入っているようです。

図解


iris.data に書いてあった数値の正体


iris.target_names って?

iris.target_names には、【正解ラベルの情報】が入っています。

iris.target_namesの中身を確認
print(iris.target_names)
結果
['setosa' 'versicolor' 'virginica']

結果から、さっきの data.target の 0, 1, 2 は、'setosa' 'versicolor' 'virginica'という名前の品種に対応しているということがわかります。

図解


iris.target に書いてあった 0、1、2 の具体的な種類の名前


iris.DESCR って?

なお、これらの情報は、iris.DESCR の中に全て書いてあります。

iris.DESCRを確認
print(iris.DESCR)
結果(長いです)
結果
.. \_iris_dataset:

## Iris plants dataset

**Data Set Characteristics:**

    :Number of Instances: 150 (50 in each of three classes)
    :Number of Attributes: 4 numeric, predictive attributes and the class
    :Attribute Information:
        - sepal length in cm
        - sepal width in cm
        - petal length in cm
        - petal width in cm
        - class:
                - Iris-Setosa
                - Iris-Versicolour
                - Iris-Virginica

    :Summary Statistics:

    ============== ==== ==== ======= ===== ====================
                    Min  Max   Mean    SD   Class Correlation
    ============== ==== ==== ======= ===== ====================
    sepal length:   4.3  7.9   5.84   0.83    0.7826
    sepal width:    2.0  4.4   3.05   0.43   -0.4194
    petal length:   1.0  6.9   3.76   1.76    0.9490  (high!)
    petal width:    0.1  2.5   1.20   0.76    0.9565  (high!)
    ============== ==== ==== ======= ===== ====================

    :Missing Attribute Values: None
    :Class Distribution: 33.3% for each of 3 classes.
    :Creator: R.A. Fisher
    :Donor: Michael Marshall (MARSHALL%PLU@io.arc.nasa.gov)
    :Date: July, 1988

The famous Iris database, first used by Sir R.A. Fisher. The dataset is taken
from Fisher's paper. Note that it's the same as in R, but not as in the UCI
Machine Learning Repository, which has two wrong data points.

This is perhaps the best known database to be found in the
pattern recognition literature. Fisher's paper is a classic in the field and
is referenced frequently to this day. (See Duda & Hart, for example.) The
data set contains 3 classes of 50 instances each, where each class refers to a
type of iris plant. One class is linearly separable from the other 2; the
latter are NOT linearly separable from each other.

.. topic:: References

- Fisher, R.A. "The use of multiple measurements in taxonomic problems"
  Annual Eugenics, 7, Part II, 179-188 (1936); also in "Contributions to
  Mathematical Statistics" (John Wiley, NY, 1950).
- Duda, R.O., & Hart, P.E. (1973) Pattern Classification and Scene Analysis.
  (Q327.D83) John Wiley & Sons. ISBN 0-471-22361-1. See page 218.
- Dasarathy, B.V. (1980) "Nosing Around the Neighborhood: A New System
  Structure and Classification Rule for Recognition in Partially Exposed
  Environments". IEEE Transactions on Pattern Analysis and Machine
  Intelligence, Vol. PAMI-2, No. 1, 67-71.
- Gates, G.W. (1972) "The Reduced Nearest Neighbor Rule". IEEE Transactions
  on Information Theory, May 1972, 431-433.
- See also: 1988 MLC Proceedings, 54-64. Cheeseman et al"s AUTOCLASS II
  conceptual clustering system finds 3 classes in the data.
- Many, many more ...

DESCR は、【Describe】=【説明する】の略です。詳細情報がまとめて書いてあってとても便利です。データのサイズや型が分からなくなったら iris.DESCR を確認してみてください。

iris データセットの全体像


iris データセットの全体像

これで、今回使う iris データセットの全体像がつかめました。花びらの長さ、花びらの幅、がく片の長さ、がく片の幅という 4 つの特徴を用いて、'setosa' 'versicolor' 'virginica'のどれに当てはまるかを分類する人工知能を作りましょう。

iris データセットのチートシートです。スクショして使ってください。

iris データセットのチートシート


プログラムに戻ります

もう一回、ソースコード載せときます ↓
sklearn-nn-iris.py
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

from sklearn import datasets
from sklearn.neural_network import MLPClassifier
from sklearn.model_selection import train_test_split

# Load datasets
iris = datasets.load_iris()

# Load as pandas.DataFrame
df_iris = pd.DataFrame(data=iris.data, columns=iris.feature_names)

# Add target
df_iris['target'] = iris.target

# Split the dataset
data_train, data_test, target_train, target_test = train_test_split(
    iris.data, iris.target, test_size=0.2, random_state=0)

# Define Neural Neowork model
clf = MLPClassifier(hidden_layer_sizes=10, activation='relu',
                    solver='adam', max_iter=1000)

# Lerning model
clf.fit(data_train, target_train)

# Calculate prediction accuracy
print(clf.score(data_train, target_train))

# Predict test data
print(clf.predict(data_test))

# Show loss curve
plt.plot(clf.loss_curve_)
plt.title("Loss Curve")
plt.xlabel("Iteration")
plt.ylabel("Loss")
plt.grid()
plt.show()

この変数 iris を、pandas の Dataframe に入れます。Excel 形式の枠組みに入れるみたいなイメージです。

pandas の Dataframe に入れる
# Load as pandas.DataFrame
df_iris = pd.DataFrame(data=iris.data, columns=iris.feature_names)
df_irisにiris.targetを追加する
# Add target
df_iris['target'] = iris.target


pandas の Dataframe に入れる

Dataframe に入れることで、データの 【平均値】や【中央値】などの情報を素早く確認できる ようになります。

こんな感じ
print(df_iris)


中身はこんな感じ


df_iris.describe()を使うとdf_iris のいろんな情報を見ることができます。

df_iris の情報を確認
print(df_iris.describe())
結果


describe()関数を使うと、df_iris の情報を一度に確認できる

【データの個数、平均、標準偏差、最小値、1/4 分位数、中央値、2/4 分位数、最大値】が一目で分かります。便利です。このように、最初にデータを読み込んだ時には、なんとなくの傾向/分布をみることから始めましょう。



次に、データを学習しやすく加工していきます。機械学習をするときはデータを、【訓練データ】と【テストデータ】に分ける必要があります。

【訓練データ】と【テストデータ】ってなに?
  • 【訓練データ】
    ⏩ AI(モデル)が賢くなるために学習するデータです。
  • 【テストデータ】
    ⏩ 学習済みの AI がどれだけ賢いのかを測るためのデータです。
    ⏩ 学習が終わって最後に使用します。


STEP① データは訓練データとテストデータに分けて扱う


STEP② 訓練データを使ってモデルを学習させる


STEP③ 学習が完了する


STEP④ テストデータを使って評価を行う


STEP⑤ 評価の結果が出てくる


全部で 150 個あるデータを【訓練データ】と【テストデータ】に分けます。train_test_split 関数を使うと、簡単に分けることができます。

# Split the dataset
data_train, data_test, target_train, target_test = train_test_split(
    iris.data, iris.target, test_size=0.2, random_state=0)

引数として、先ほどの【iris.data】と【iris.target】を渡します。test_size=0.2 とすることで、全体の何%を【テストデータ】として使用するかを決めることができます。

今回は 20%なので、【訓練データ】= 80%(120 個)、【テストデータ】= 20%(30 個)としました。結果は、data_train, data_test, target_train, target_test という 4 つの変数に入れられました。

図解


train_test_split()関数を使って、、


訓練データ(data_train, target_train)とテストデータ(data_test, target_test)に分ける



Step2 のまとめ

Step3: モデルの作成

さて、データの準備ができたので、いよいよ人工知能(機械学習モデル)を作っていきます。今回は、ニューラルネットワーク(Sklearn.neural_network)というアルゴリズムをつかいます。アヤメの花の種類を予測する【分類問題】なので、MLPClassifier を使います。

ニューラルネットワークのモデルを作成
# Define Neural Neowork model
clf = MLPClassifier(hidden_layer_sizes=10, activation='relu',
                    solver='adam', max_iter=1000)


今回は分類問題なので、MLPClassifier を使う。開基問題の場合は MLPRegressor を使う。

MLPClassifier って何?

MLPClassifier は以下のような意味です

  • MLP =多層パーセプトロン(MultiLayer Perceptron)
  • Classifier =分類器
ニューラルネットワークって何?

ニューラルネットワークを簡単に説明します。入力層に学習データ(ここではアヤメの情報)を入力すると、入力層 → 中間層 → 出力層を通りながら勝手にいろいろ計算をします。

何回も計算(学習)することで正解ラベル(ここではアヤメの品種 0,1,2)との誤差を小さくしていき、最終的に良い感じの予測結果が出力層に出てくるというアルゴリズムです。


ニューラルネットワークとは?


ニューラルネットワークをもっと詳しく知りたい方は、初心者向けの記事と動画を上げていますので、よければご覧ください。
https://zenn.dev/nekoallergy/books/904df952389317

https://www.youtube.com/watch?v=gRlLTKra-xk


clf = MLPClassifier()とすることで、【clf】という名前でニューラルネットワークのモデルの枠組みを作成します。この【clf】が人工知能(機械学習モデル)そのものになります。AI エンジニアが使う難しい言葉で言うと、ここで【インスタンス化】をしています。分からなくても大丈夫です。

clf って何?

clf は Classifier(分類器)の略です。

しかし、これだけでは【clf】はまだ何もできません。AI とは言えない、ただの箱です。そこで、MLPClassifier()に、いくつか引数を渡すことで、いろいろな設定をすることができます。モデルにオプションを付けて、自分好みにカスタマイズできるってことです。


4 つの引数を設定することで、モデルをカスタマイズしている
ここでは、4 つの引数を渡しています。それぞれ説明していきます。

引数 ① hidden_layer_sizes


引数 ① hidden_layer_sizes
hidden_layer_sizes では、ニューラルネットワークの中間層(隠れ層)のニューロンを何個にするかを決めます。値が大きければ精度は上がります。今回は hidden_layer_sizes=10 とします。

引数 ② activation


引数 ② activation
activation では、活性化関数に何を使うかを決めます。‘identity’, ‘logistic’, ‘tanh’, ‘relu’の 4 つの中から選ぶことができますが、今回は人気でシンプルな'relu'という活性化関数を使います。

引数 ③ solver


引数 ③ solver
solver では、最適化の手法に何を使うかを決めます。‘lbfgs’, ‘sgd’, ‘adam’の 3 つの中から選ぶことができますが、現在最も評価されている手法である'adam'という手法を使います。

引数 ④ max_iter


引数 ④ max_iter
max_iter では、繰り返し回数を決めることができます。値が大きければ精度は上がります。今回は max_iter=1000 とします。


今回はこの 4 つを設定して、AI を作ります。

今回設定した 4 つ以外にも,,,

今回設定した 4 つ以外にも、MLPClassifier()では、全部で 23 個の設定をカスタマイズすることができます。自分の好きなようにカスタムしてみてください。


23 の設定ができる



Step3 のまとめ

Step4: モデルを学習させる

さて、ようやくモデルができました。次はいよいよ学習です。学習といっても、とても簡単で、clf.fit(data_train, target_train)の1行で完了します。fit 関数はモデルの学習を実行する関数です。引数として【訓練データ】を渡すことで、勝手に学習してくれます。

モデルの学習
# Lerning model
clf.fit(data_train, target_train)


fit 関数はモデルの学習を実行する関数

この fit()を実行する前と、終わった後では、【clf】の中身が書き換わって、違うものになっています。見た目は同じ【clf】という箱ですが、ただの箱から、人工知能へと進化しています。


fit()で学習したら


clf が学習済み状態になる

さて、いま作った人工知能がどれくらい賢いのかを確認していきます。score 関数を使って精度を出します。

モデルの精度を確認
# Calculate prediction accuracy
print(clf.score(data_train, target_train))
結果
0.975


score 関数を使って、モデルの精度を計算

結果は【0.975】 つまり、97.5%の精度でアヤメの品種を分類できていることになります。もし 100 個のデータを見せたら、3 つくらいは間違えちゃうってことです。でも、95%を超えているのでなかなか良いスコアです!


97.5%という結果が出てきた

ただ、このスコアはあくまで、学習した【訓練データ】をどれだけ分類できるかという数値です。何回も学習したデータに対してのスコアなので、高スコアで当然です。本当に知りたいのは、【学習に使っていないテストデータでは、どれだけ正しく予測することができるか】というスコアです。




Step4 のまとめ

Step5: 予測

predict 関数を使って予測をします。ここで登場するのが、さっき用意しておいた【テストデータ】の【data_test】と【target_test】です。

引数として渡すのは、【data_test】です。テストデータ【data_test】だけを人工知能に見せて、正解ラベルの【target_test】の値を正しく予測できるかを確認します。


predict 関数を使ってテストデータの予測

テストデータを使って予測してみる
# Predict test data
print(clf.predict(data_test))
結果
[2 1 0 2 0 2 0 1 1 1 2 1 1 1 1 0 1 1 0 0 2 2 0 0 2 0 0 1 1 0]

[2 1 0 2 0 2 0 1 1 1 2 1 1 1 1 0 1 1 0 0 2 2 0 0 2 0 0 1 1 0]のように出てきました。これは、人工知能に渡した【data_test】の 30 個のデータがどの品種と予測されたかの結果です。正解ラベル【target_test】と比較してみましょう。

正解ラベルを表示
print(target_test)
結果
array([2, 1, 0, 2, 0, 2, 0, 1, 1, 1, 2, 1, 1, 1, 1, 0, 1, 1, 0, 0, 2, 1, 0, 0, 2, 0, 0, 1, 1, 0])


予測結果と正解ラベルを比較

比較すると、22 番目が違います。本当は 1 のところが、2 に分類されてしまっています。おしいですね。

しかし、今まで一度も見せていないデータをここまで正しく分類できるのは、AI っぽいですね。しかも、人工知能には【データを渡しただけで自分で学習してくれる】ので、魅力的です。



Step5 のまとめ

Step6: 学習過程の表示

最後に、AI が学習をしている最中の状態を可視化してみます。clf.loss_curve_には学習中の損失の値(Loss)が配列として入っています。

損失(Loss)とは?

損失とは、不正解の割合みたいなものです。正確には異なりますが、この値を小さくすることで、AI の精度がよくなっていきます。

clf.loss_curve_の中身
print(clf.loss_curve_)
結果
[1.3079614069226488,
 1.290595120396943,
 1.2735468633194589,
         ,
         ,
  (1000回分のLoss)
         ,
         ,
 0.1744929329385299,
 0.17422939487479655,
 0.1739668447807053]

学習を繰り返すたびに、その時の Loss 値を clf.loss_curve_に入れていきます。今回は、max_iter=1000(学習を 1000 回繰り返す)としたので、clf.loss_curve_ には 1000 個の損失値が入っています。


学習を繰り返すたびに、その時の Loss 値が入る


matplotlib というライブラリを使うことで簡単に図を作ることができます。

# Show loss curve
plt.plot(clf.loss_curve_)
plt.title("Loss Curve")
plt.xlabel("Iteration")
plt.ylabel("Loss")
plt.grid()
plt.show()


学習の過程。だんだん精度が良くなっている。

結果はこのようになります。学習が進むにつれて、Loss がだんだん小さくなっていることがわかります。AI が学習している過程が見れると、どこで行き詰まっているのかも把握することができて便利です。



Step6 のまとめ

まとめ


今回のまとめ

今回は、scikit-learn の Neural Network を使ってアヤメの品種を分類する簡単な AI を作ってみました。結果として、精度 90%超えの【アヤメ分類 AI】を作ることができました。

また、実際に学習させるのはとっても簡単で、むしろデータの準備の方に時間がかかることもわかったと思います。データの質は AI の質に直結するので、注意しましょう。

少しでもみなさんの理解が進んだなら嬉しいです。質問などありましたらコメントよろしくお願いします。

ニューラルネットワークについてもっと詳しく知りたいかたは、こちらも併せてご覧ください。
https://zenn.dev/nekoallergy/books/904df952389317

なお、この記事の内容は YouTube で動画にもしています。併せて見ていただくと嬉しいです。
https://youtu.be/h-ENshIbDK0

人工知能/AI/機械学習をもっと詳しく

ねこアレルギーのAI

ねこアレルギーの AI
YouTube で機械学習について発信しています。
お時間ある方は覗いていただけると喜びます。


Created by NekoAllergy

Discussion

NineNine

分類する花の種類を増やしたい場合はどのようにすれば良いですか?

NekoAllergyNekoAllergy

コメントありがとうございます!

花の種類を増やすためには、自身でデータセットを作成する必要があります。今回の(150, 4)のデータに対して、(150, 5)のように1列追加するイメージです。
教師ラベルtargetも併せて追加します。(ラベル3を加えるイメージです)

これらのデータは'numpy.ndarray'型のため、比較的簡単に修正できると思います。詳しくはぜひ調べてみてください。

NoaNoa

とても興味深かったです。
これを応用していけば、もっとすごいのできますか?

NekoAllergyNekoAllergy

コメントありがとうございます!

自然言語処理、画像認識、音声認識、自動運転など、さまざまな分野に応用することができます。今回は超基礎的な内容ですが、データの準備、学習、推論などの流れは変わりません。
ぜひ勉強してみてください。

lipgtxlipgtx

すっごくわかりやすかったです。ほかのページもいろいろ見させていただきます

NekoAllergyNekoAllergy

とっても嬉しいコメントありがとうございます!他の記事も見ていただけると喜びます!