タイトルコード |
1000101036542 |
書誌種別 |
図書 |
書名 |
はじめてのパターン認識 ディープラーニング編 |
巻次(漢字) |
ディープラーニング編 |
書名ヨミ |
ハジメテ ノ パターン ニンシキ |
言語区分 |
日本語 |
著者名 |
平井 有三/著
|
著者名ヨミ |
ヒライ ユウゾウ |
出版地 |
東京 |
出版者 |
森北出版
|
出版年月 |
2022.12 |
本体価格 |
¥3600 |
ISBN |
978-4-627-85071-2 |
ISBN |
4-627-85071-2 |
数量 |
6,266p |
大きさ |
22cm |
分類記号 |
007.13
|
件名 |
パターン認識
|
各巻件名 |
深層学習 |
注記 |
文献:p253〜261 |
内容紹介 |
なぜディープラーニングはうまくいくのか? ディープラーニングを開花させたここ10年の様々な研究成果を網羅的に概観しつつ、ディープラーニングの中枢を担う原理を掘り下げて解説する。「はじめてのパターン認識」の続編。 |
著者紹介 |
慶應義塾大学大学院工学研究科電気工学専攻博士課程修了。筑波大学名誉教授。工学博士。 |
目次タイトル |
第1章 はじめに |
|
第2章 復習・誤差逆伝搬法 |
|
2.1 全結合型ニューラルネットワーク 2.2 誤差逆伝搬法 2.3 損失関数 2.4 MNIST手書き数字認識の学習(実行例2.1) 2.5 まとめ |
|
第3章 自動微分 |
|
3.1 自動微分とは何でないか 3.2 自動微分とグラフ表現 3.3 計算グラフ 3.4 フォワードモード法による自動微分 3.5 リバースモード法による自動微分 3.6 リバースモード法と誤差逆伝搬 3.7 計算グラフを用いたシグモイド関数の微分(練習問題) 3.8 まとめ |
|
第4章 ディープラーニングの最適化技法 |
|
4.1 確率的勾配降下法の復習 4.2 慣性項とNesterovの効用(実行例4.1) 4.3 学習定数のスケジューリング 4.4 よい学習定数を見つける簡便な方法(実行例4.2) 4.5 適応型確率的勾配降下法 4.6 Adamを用いた実行例(実行例4.3) 4.7 まとめ |
|
第5章 活性化関数 |
|
5.1 シグモイド関数 5.2 ReLUとその派生形 5.3 ELU 5.4 SELU 5.5 SELUが自己正規化特性をもつことの確認(実行例5.1) 5.6 GELU 5.7 まとめ |
|
第6章 パラメータの初期化と正則化 |
|
6.1 パラメータ初期化の重要性 6.2 Glorotの初期化と動作確認(実行例6.1) 6.3 Heの初期化と動作確認(実行例6.2) 6.4 直交基底による初期化 6.5 正則化 6.6 L2正則化の例(実行例6.3) 6.7 ドロップアウト正則化 6.8 MCドロップアウト 6.9 ドロップアウトとMCドロップアウトの例(実行例6.4) 6.10 まとめ |
|
第7章 ディープ化の技法 |
|
7.1 勾配クリッピング 7.2 バッチ正規化 7.3 バッチ正規化の効用(実行例7.1) 7.4 バッチ正規化の理解に向けて 7.5 その他の正規化技法 7.6 ResNet 7.7 ResNetによるMNIST手書き数字認識(実行例7.2) 7.8 まとめ |
|
第8章 CNN |
|
8.1 CNNの順方向計算 8.2 CNNの誤差逆伝搬 8.3 バッチ正規化とCNN 8.4 Heの初期化とCNN 8.5 畳み込みパラメータ数の低減 8.6 CNNとResNet 8.7 CNNによるMNIST手書き数字認識(実行例8.1) 8.8 コンピュータビジョンとCNN 8.9 まとめ |
|
第9章 VAE |
|
9.1 オートエンコーダ 9.2 VAE 9.3 VAEをニューラルネットワークで実現する方法 9.4 VAEによるMNIST手書き数字の生成(実行例9.1) 9.5 まとめ |
|
第10章 GAN |
|
10.1 GANの基本 10.2 DCGAN 10.3 DCGANによるMNIST手書き数字の生成(実行例10.1) 10.4 WGAN 10.5 スペクトル正規化によるGANの構成 10.6 スペクトル正規化を用いたDCGANの実行(実行例10.2) 10.7 GANからBigGANへ 10.8 生成画像の多様性と質の評価尺度およびトレードオフ 10.9 まとめ |
|
第11章 RNN |
|
11.1 RNNの構造 11.2 BPTT 11.3 LSTMとGRU 11.4 RNNによる言語モデル 11.5 文字列の学習と生成(実行例11.1) 11.6 単語の分散表現 11.7 エンコーダ・デコーダシステム 11.8 Attentionネットワーク 11.9 翻訳文の評価法 11.10 まとめ |
|
第12章 Self‐AttentionとTransformer |
|
12.1 Transformerの概要 12.2 エンコーダ入力 12.3 エンコーダSublayer 1 12.4 エンコーダSublayer 2 12.5 デコーダ 12.6 最終Layer 12.7 TransformerのAblation Study 12.8 GPT-3とBERT 12.9 Transformerの実行例(実行例12.1) 12.10 ViT 12.11 まとめ |
|
付録 |
|
A.1 式(9.15)の導出 A.2 誘導ノルムの等価性 A.3 生成画像の評価法(ISとFID) A.4 翻訳文の評価法(BLEU) |