タイトルコード |
1000100956253 |
書誌種別 |
図書 |
書名 |
深層学習 |
書名ヨミ |
シンソウ ガクシュウ |
叢書名 |
機械学習プロフェッショナルシリーズ
|
版表示 |
改訂第2版 |
言語区分 |
日本語 |
著者名 |
岡谷 貴之/著
|
著者名ヨミ |
オカタニ タカユキ |
出版地 |
東京 |
出版者 |
講談社
|
出版年月 |
2022.1 |
本体価格 |
¥3000 |
ISBN |
978-4-06-513332-3 |
ISBN |
4-06-513332-3 |
数量 |
16,366p |
大きさ |
21cm |
分類記号 |
007.13
|
件名 |
深層学習
|
注記 |
文献:p329〜360 |
内容紹介 |
深層学習を俯瞰できるテキスト。ネットワークの基本構造から、学習の基礎となる確率的勾配降下法、誤差逆伝播法、異なるタイプのデータを扱うネットワーク、より発展的な学習方法、深層生成モデルまでを解説する。 |
著者紹介 |
東京大学大学院工学系研究科計数工学専攻博士課程修了。東北大学大学院情報科学研究科教授。理化学研究所革新知能統合研究センターチームリーダー。 |
目次タイトル |
第1章 はじめに |
|
1.1 研究の歴史 1.2 本書の構成 |
|
第2章 ネットワークの基本構造 |
|
2.1 ユニットと活性化関数 2.2 順伝播型ネットワーク 2.3 学習の概要 2.4 問題の定式化:出力層と損失関数の設計 |
|
第3章 確率的勾配降下法 |
|
3.1 確率的勾配降下法(SGD) 3.2 汎化性能と過剰適合 3.3 正則化 3.4 学習率の選定と制御 3.5 SGDの改良 3.6 層出力の正規化 3.7 重みの初期化 3.8 その他 |
|
第4章 誤差逆伝播法 |
|
4.1 勾配計算の煩わしさ 4.2 誤差逆伝播法 4.3 自動微分 4.4 勾配消失問題 4.5 残差接続 |
|
第5章 畳み込みニューラルネットワーク |
|
5.1 単純型細胞と複雑型細胞 5.2 畳み込み 5.3 畳み込み層 5.4 プーリング層 5.5 畳み込み層の出力の正規化 5.6 推論のためのCNNの構造 5.7 入出力間の幾何学的関係 5.8 畳み込み層の一般化 5.9 アップサンプリングと畳み込み 5.10 物体カテゴリ認識への適用例 |
|
第6章 系列データのためのネットワーク |
|
6.1 系列データ 6.2 リカレントニューラルネットワーク 6.3 ゲート機構 6.4 自己回帰モデル 6.5 1次元畳み込みネットワーク 6.6 逆伝播の計算 |
|
第7章 集合・グラフのためのネットワークと注意機構 |
|
7.1 集合データを扱うネットワーク 7.2 注意機構 7.3 トランスフォーマー 7.4 グラフニューラルネットワーク |
|
第8章 推論の信頼性 |
|
8.1 推論の不確かさ 8.2 不確かさの数理モデル 8.3 不確かさの予測 8.4 分布外入力の検出 8.5 敵対的事例 8.6 品質保証の試み |
|
第9章 説明と可視化 |
|
9.1 はじめに 9.2 入力による出力の微分 9.3 入力の遮蔽・挿入 9.4 中間層出力の表示 9.5 寄与度の分解 9.6 寄与度の逆伝播 9.7 可視化手法の評価 9.8 影響関数 9.9 学習内容の可視化 |
|
第10章 いろいろな学習方法 |
|
10.1 距離計量学習 10.2 事例集合(マルチインスタンス)学習 10.3 クラスラベルの誤り 10.4 クラス間不均衡 10.5 継続・追加学習 10.6 知識蒸留 10.7 枝刈り 10.8 計算の量子化 10.9 ネットワーク構造探索(NAS) |
|
第11章 データが少ない場合の学習 |
|
11.1 はじめに 11.2 データ拡張 11.3 転移学習 11.4 半教師あり学習 11.5 自己教師学習 11.6 マルチタスク学習 11.7 ドメイン適応・汎化 11.8 少数事例学習 11.9 能動学習 |
|
第12章 生成モデル |
|
12.1 データの生成モデル 12.2 自己符号化器 12.3 変分自己符号化器(VAE) 12.4 敵対的生成ネットワーク(GAN) 12.5 正規化フロー 12.6 ボルツマンマシン |