はじめに
G検定では、深層学習モデルにおける「全結合層(Fully Connected Layer)」と「畳み込み層(Convolutional Layer)」の違いが頻繁に問われます。
しかし、言葉や数式だけで覚えようとすると混乱しやすく、試験中に「どっちがどっちだっけ?」となるケースが多い分野です。
本記事では、それらの重要なポイントを 音楽のリズムに合わせて記憶に残しやすくする学習法 として、AIで制作した教育楽曲 「パラメータ数・データ特性覚えうた」 を紹介します。
試験前の反復学習にぜひ活用してください。
AIを活用した楽曲制作
本楽曲は 歌詞をChatGPTで作詞し、音楽生成をSuno AIによって行ったものです。
音楽は「覚える」だけでなく、思い出すトリガーとしても効果的なため、試験本番でも役立ちます。
音楽スタイルは アップテンポのリズムで、記憶に残りやすい構成になっています。
タイトル・歌詞の紹介
曲のタイトル
パラメータ数・データ特性覚えうた
歌詞
全結合層は全ての入力ノードが 全ての出力ノードに接続される層
畳み込み層は局所領域のフィルタで 同一フィルタを全体へスライド適用
全結合のパラメータは (入力次元+1)×出力次元
構造化済みのベクトルデータに向く 出力次元はニューロン数
畳み込みのパラメータ数は
カーネル高さ × カーネル幅 × 入力チャネル数 × 出力チャネル数
バイアスは出力チャネルごとに1つ足す
重み共有でパラメータ数を減らす 位置不変性も畳み込みの特徴
画像や時系列データが向く 各出力チャネルは1種類のフィルタ応答
全ノード同士の接続は全結合層 カーネルは局所特徴抽出器
畳み込みは位置不変性を持ち 出力チャネルは特徴マップ枚数
楽曲の視聴
- YouTube
- Suno AI
パラメータ数・データ特性覚えうた(Suno AI)
歌詞の解説
全結合層について
全結合層は、前の層の 全てのノードと結合する層です。
各入力に対して重みとバイアスを設定し、特徴を統合する役割を持ちます。
全結合層のパラメータ数は次の式で求められます。
\((入力次元 + 1) \times 出力次元\)
※ +1 は各出力ニューロンに対応するバイアスの分です。
例:入力100、出力10 の場合
\((100 + 1) \times 10 = 1010\)全結合層は、構造化済みのベクトルデータに向き、画像のような空間的な位置構造は保持しません。
そのため、画像処理では通常、Flatten(1次元化)してから全結合層につなげます。
畳み込み層について
畳み込み層は、画像や時系列など 隣り合う値同士に意味があるデータ(局所相関) に適した層です。
入力データの小さな領域に カーネル(フィルタ) をスライドさせて特徴を抽出します。
畳み込み層のパラメータ数は以下で求められます。
\(カーネル高さ \times カーネル幅 \times 入力チャネル数 \times 出力チャネル数 + 出力チャネル数\)ここで重要なのは、
ストライドやパディングはパラメータ数に影響しない
という点です。
パラメータに影響するのは、あくまで「カーネルのサイズ」と「チャネル数」だけです。
また、畳み込み層には 重み共有 という特徴があります。
同じフィルタを画像全体にスライド適用するため、
パラメータ数が少なく効率が良い ことに加え、
位置が少しずれても同様の特徴として捉えやすい(平行移動に強い) 性質があります。
ただし、完全な「位置不変性」 は畳み込み層単独ではなく、
プーリングやグローバル平均プーリングなどと組み合わせて実現されやすい という点も補足しておきます。
出力チャネルと特徴マップ
出力チャネル数は フィルタ(カーネル)の数 であり、
結果として得られる 特徴マップの枚数 を意味します。
各出力チャネルは、入力チャネルごとの畳み込み結果を合算したものです。
これにより、1つのチャネルは1種類の特徴を抽出した画像 として扱われます。
まとめ
本記事では、G検定で頻出の「全結合層」と「畳み込み層」の違いを、
AI生成楽曲 「パラメータ数・データ特性覚えうた」 と共に整理しました。
- 全結合層は全結合構造で特徴を統合
- 畳み込み層は局所領域の特徴抽出と重み共有で効率的
- 位置に対して強い性質は、畳み込み+プーリングによって得られやすい
歌と一緒に覚えることで、試験の選択肢でも瞬時に思い出せます。
ぜひ、学習のBGMとして活用してください。


コメント