検索結果書誌詳細

  • 書誌の詳細です。 現在、予約は 0 件です。
  • 「資料情報」から書誌を予約カートに入れるページに移動します。

蔵書情報

この資料の蔵書に関する統計情報です。現在の所蔵数 在庫数 予約数などを確認できます。

所蔵数 1 在庫数 1 予約数 0

書誌情報サマリ

書名

はじめてのパターン認識 ディープラーニング編

著者名 平井 有三/著
著者名ヨミ ヒライ ユウゾウ
出版者 森北出版
出版年月 2022.12


この資料に対する操作

カートに入れる を押すと この資料を 予約する候補として予約カートに追加します。

いますぐ予約する を押すと 認証後この資料をすぐに予約します。

この資料に対する操作

電子書籍を読むを押すと 電子図書館に移動しこの資料の電子書籍を読むことができます。


登録するリストログインメモ


資料情報

各蔵書資料に関する詳細情報です。

No. 所蔵館 配架場所 請求記号 資料番号 資料種別 状態 個人貸出 在庫
1 中央図書館一般開架00713/114/0106807121一般在庫 

書誌詳細

この資料の書誌詳細情報です。

タイトルコード 1000101036542
書誌種別 図書
書名 はじめてのパターン認識 ディープラーニング編
巻次(漢字) ディープラーニング編
書名ヨミ ハジメテ ノ パターン ニンシキ
言語区分 日本語
著者名 平井 有三/著
著者名ヨミ ヒライ ユウゾウ
出版地 東京
出版者 森北出版
出版年月 2022.12
本体価格 ¥3600
ISBN 978-4-627-85071-2
ISBN 4-627-85071-2
数量 6,266p
大きさ 22cm
分類記号 007.13
件名 パターン認識
各巻件名 深層学習
注記 文献:p253〜261
内容紹介 なぜディープラーニングはうまくいくのか? ディープラーニングを開花させたここ10年の様々な研究成果を網羅的に概観しつつ、ディープラーニングの中枢を担う原理を掘り下げて解説する。「はじめてのパターン認識」の続編。
著者紹介 慶應義塾大学大学院工学研究科電気工学専攻博士課程修了。筑波大学名誉教授。工学博士。
目次タイトル 第1章 はじめに
第2章 復習・誤差逆伝搬法
2.1 全結合型ニューラルネットワーク 2.2 誤差逆伝搬法 2.3 損失関数 2.4 MNIST手書き数字認識の学習(実行例2.1) 2.5 まとめ
第3章 自動微分
3.1 自動微分とは何でないか 3.2 自動微分とグラフ表現 3.3 計算グラフ 3.4 フォワードモード法による自動微分 3.5 リバースモード法による自動微分 3.6 リバースモード法と誤差逆伝搬 3.7 計算グラフを用いたシグモイド関数の微分(練習問題) 3.8 まとめ
第4章 ディープラーニングの最適化技法
4.1 確率的勾配降下法の復習 4.2 慣性項とNesterovの効用(実行例4.1) 4.3 学習定数のスケジューリング 4.4 よい学習定数を見つける簡便な方法(実行例4.2) 4.5 適応型確率的勾配降下法 4.6 Adamを用いた実行例(実行例4.3) 4.7 まとめ
第5章 活性化関数
5.1 シグモイド関数 5.2 ReLUとその派生形 5.3 ELU 5.4 SELU 5.5 SELUが自己正規化特性をもつことの確認(実行例5.1) 5.6 GELU 5.7 まとめ
第6章 パラメータの初期化と正則化
6.1 パラメータ初期化の重要性 6.2 Glorotの初期化と動作確認(実行例6.1) 6.3 Heの初期化と動作確認(実行例6.2) 6.4 直交基底による初期化 6.5 正則化 6.6 L2正則化の例(実行例6.3) 6.7 ドロップアウト正則化 6.8 MCドロップアウト 6.9 ドロップアウトとMCドロップアウトの例(実行例6.4) 6.10 まとめ
第7章 ディープ化の技法
7.1 勾配クリッピング 7.2 バッチ正規化 7.3 バッチ正規化の効用(実行例7.1) 7.4 バッチ正規化の理解に向けて 7.5 その他の正規化技法 7.6 ResNet 7.7 ResNetによるMNIST手書き数字認識(実行例7.2) 7.8 まとめ
第8章 CNN
8.1 CNNの順方向計算 8.2 CNNの誤差逆伝搬 8.3 バッチ正規化とCNN 8.4 Heの初期化とCNN 8.5 畳み込みパラメータ数の低減 8.6 CNNとResNet 8.7 CNNによるMNIST手書き数字認識(実行例8.1) 8.8 コンピュータビジョンとCNN 8.9 まとめ
第9章 VAE
9.1 オートエンコーダ 9.2 VAE 9.3 VAEをニューラルネットワークで実現する方法 9.4 VAEによるMNIST手書き数字の生成(実行例9.1) 9.5 まとめ
第10章 GAN
10.1 GANの基本 10.2 DCGAN 10.3 DCGANによるMNIST手書き数字の生成(実行例10.1) 10.4 WGAN 10.5 スペクトル正規化によるGANの構成 10.6 スペクトル正規化を用いたDCGANの実行(実行例10.2) 10.7 GANからBigGANへ 10.8 生成画像の多様性と質の評価尺度およびトレードオフ 10.9 まとめ
第11章 RNN
11.1 RNNの構造 11.2 BPTT 11.3 LSTMとGRU 11.4 RNNによる言語モデル 11.5 文字列の学習と生成(実行例11.1) 11.6 単語の分散表現 11.7 エンコーダ・デコーダシステム 11.8 Attentionネットワーク 11.9 翻訳文の評価法 11.10 まとめ
第12章 Self‐AttentionとTransformer
12.1 Transformerの概要 12.2 エンコーダ入力 12.3 エンコーダSublayer 1 12.4 エンコーダSublayer 2 12.5 デコーダ 12.6 最終Layer 12.7 TransformerのAblation Study 12.8 GPT-3とBERT 12.9 Transformerの実行例(実行例12.1) 12.10 ViT 12.11 まとめ
付録
A.1 式(9.15)の導出 A.2 誘導ノルムの等価性 A.3 生成画像の評価法(ISとFID) A.4 翻訳文の評価法(BLEU)



内容細目

関連資料

この資料に関連する資料を 同じ著者 出版年 分類 件名 受賞などの切り口でご紹介します。

2022
007.13 007.13
パターン認識
前のページへ

本文はここまでです。


ページの終わりです。