「入力層と出力層覚えうた」――G検定に出る基礎を音楽で覚えるAI学習ソング

入力層3ノード、中間層3ノード、出力層1ノードからなるシンプルなニューラルネットワーク図。入力=特徴量の次元数、出力=クラス数/出力次元と示され、回帰や二値分類の例を表す。 AI
この記事は約4分で読めます。

はじめに

G検定では、ディープラーニングの基礎である入力層・出力層の役割や定義が頻出です。
特に「入力層のニューロン数=特徴量の次元数」「出力層の活性化関数と損失関数の対応」など、選択肢問題で混乱しやすいポイントが問われます。
この記事では、AIを活用して作成した楽曲「入力層と出力層覚えうた」を通して、試験に出る用語をリズムで記憶しやすくまとめます。


AIを活用した楽曲制作

今回の楽曲は、生成AIであるChatGPTを用いて歌詞を作成し、AI作曲ツールであるSuno AIを用いて音楽を生成しました。
スタイルは Up-tempo Educational Pops とし、短時間で耳に残りやすく、学習の定着に役立つよう工夫しています。


タイトル・歌詞の紹介

曲のタイトル

入力層と出力層覚えうた

歌詞

入力層は前処理後の観測データを受け取る 入力は特徴量として扱う
入力層のニューロン数は特徴量の次元数 入力層は重みを持たず、次の層が重みを持つ
前処理済みの数値ベクトルを入れる 正規化・標準化・One-Hotを施す
前処理は入力層の役割ではない 入力準備工程に含まれる
出力層は最終予測を出す層 分類ならクラス確率・ラベルを出力
回帰なら数値を直接出力 二値分類はシグモイド、多クラスはソフトマックス
回帰は活性化なしの恒等関数 出力層は損失関数と直接結びつく
出力の形式に合わせて損失を選ぶ 入力層と出力層の間は表現学習
中間層で入力を変換し特徴を作る 分類の出力ニューロン数はクラスの数
回帰の出力ニューロン数は出力ベクトルの次元数
確率を出すときはソフトマックス+交差エントロピー

楽曲の視聴

  • YouTube

歌詞の解説

入力層

「入力層は前処理後の観測データを受け取る」
入力層は観測データそのものではなく、正規化・標準化・ワンホット(One-Hot) など前処理を行った数値ベクトルを受け取ります。
入力層のニューロン数は、データの特徴量の次元数に等しくなります。

例:28×28のグレースケール画像 → 784次元(0〜255を0〜1に正規化)として数値ベクトル化。入力層ニューロン数=784。

「入力層は重みを持たず、次の層が重みを持つ」
入力層はただデータを渡すだけで、学習の対象となるパラメータは持ちません。
※一般的な全結合/CNNの入力層は重みを持たないが、単語埋め込みなど特殊な「入力用の変換層」は別途パラメータを持つ場合があります。


前処理

「前処理は入力層の役割ではない」
試験で混乱しやすい点です。前処理はモデルの外側で行われ、入力層自体が正規化やワンホット化を行うわけではありません。


出力層

「出力層は最終予測を出す層」
タスクに応じて出力層の設計は変わります。

  • 二値分類
    活性化関数にシグモイドを使い、出力は0〜1の確率。
    損失関数は二値交差エントロピー(Binary Cross Entropy, BCE)。
\(L=-(y\log \hat{y}+(1-y)\log(1-\hat{y}))\)

  • 多クラス分類
    活性化関数にソフトマックスを使い、各クラスの確率を出力。
    損失関数は多クラス交差エントロピー。
\( L = -\sum_{i=1}^{K} y_i \log \hat{y}_i \)

  • 回帰
    活性化関数を使わず恒等関数とし、実数値をそのまま出力。

分類ではクラス確率を出力し、ラベルはargmax(または閾値)で決定します。
出力層の活性化は損失関数の設計とセットで選びます。


中間層(隠れ層)

「入力層と出力層の間は表現学習」
中間層は入力を抽象化し、出力に適した特徴を生成する役割を担います。
これにより、入力から出力に至る複雑な変換が可能になります。


ニューロン数の関係

「分類の出力ニューロン数はクラスの数」
例えば3クラス分類なら出力ニューロンは3。

「回帰の出力ニューロン数は出力ベクトルの次元数」
例えば座標予測(x,y)の場合、出力は2次元となります。


楽曲に込めたメッセージ

G検定で出題される入力層・出力層の定義や役割を、音楽を通して自然に記憶できるように工夫しました。
特に 「入力=特徴量の次元数」「出力=クラス数/回帰の次元数」「活性化関数と損失関数の対応」 は間違えやすいため、歌詞で繰り返し強調しています。


まとめ

  • 入力層は前処理済みの特徴量をそのまま受け取る。
  • 入力層のニューロン数=特徴量の次元数。
  • 出力層はタスクに応じて形を変える。
  • 二値分類はシグモイド+二値交差エントロピー(BCE)、多クラス分類はソフトマックス+多クラス交差エントロピー、回帰は恒等関数。
  • 出力層の活性化は損失関数の設計とセットで選ぶ。

試験に出る要点を歌にして覚えることで、リズムに乗せて知識を定着させることができます。

コメント

タイトルとURLをコピーしました