タイトルコード |
1000100184691 |
書誌種別 |
図書 |
書名 |
統計的学習の基礎 |
書名ヨミ |
トウケイテキ ガクシュウ ノ キソ |
|
データマイニング・推論・予測 |
言語区分 |
日本語 |
著者名 |
Trevor Hastie/著
Robert Tibshirani/著
Jerome Friedman/著
杉山 将/監訳
井手 剛/監訳
神嶌 敏弘/監訳
栗田 多喜夫/監訳
前田 英作/監訳
井尻 善久/[ほか]訳
|
著者名ヨミ |
Trevor Hastie Robert Tibshirani Jerome Friedman スギヤマ マサシ イデ ツヨシ カミシマ トシヒロ クリタ タキオ マエダ エイサク イジリ ヨシヒサ |
著者名原綴 |
Hastie Trevor J. Tibshirani Robert Friedman Jerome |
出版地 |
東京 |
出版者 |
共立出版
|
出版年月 |
2014.6 |
本体価格 |
¥14000 |
ISBN |
978-4-320-12362-5 |
ISBN |
4-320-12362-5 |
数量 |
25,853p |
大きさ |
22cm |
分類記号 |
007.13
|
件名 |
パターン認識
数理統計学
|
注記 |
原タイトル:The elements of statistical learning 原著第2版の翻訳 |
注記 |
文献:章末,p809〜831 |
内容紹介 |
統計的学習分野の世界的に著名なテキストの全訳。回帰や分類などの教師あり学習の入門的な話題から、グラフィカルモデルや高次元学習問題に対するスパース学習法などの最新の話題までを幅広く網羅する。演習問題も収録。 |
目次タイトル |
第1章 序章 |
|
第2章 教師あり学習の概要 |
|
2.1 導入 2.2 変数の種類と用語 2.3 予測のための二つの簡単なアプローチ:最小2乗法と最近傍法 2.4 統計的決定理論 2.5 高次元での局所的手法 2.6 統計モデル,教師あり学習,関数近似 2.7 構造化回帰モデル 2.8 制限付き推定法 2.9 モデル選択と,バイアスと分散のトレードオフ 本章の参考文献 本章の演習 |
|
第3章 回帰のための線形手法 |
|
3.1 導入 3.2 線形回帰モデルと最小2乗法 3.3 変数選択 3.4 縮小推定 3.5 入力に対して線形変換を行う方法 3.6 考察:選択法と縮小法の比較 3.7 複数の目的変数の縮小推定と変数選択 3.8 lassoと関連する解追跡アルゴリズムに関する詳細 3.9 計算上考慮すべき事柄 本章の参考文献 本章の演習 |
|
第4章 分類のための線形手法 |
|
4.1 導入 4.2 指示行列の線形回帰 4.3 線形判別分析 4.4 ロジスティック回帰 4.5 分離超平面 本章の参考文献 本章の演習 |
|
第5章 基底展開と正則化 |
|
5.1 導入 5.2 区分的多項式とスプライン 5.3 フィルタリングと特徴抽出 5.4 平滑化スプライン 5.5 平滑化パラメータの自動選択 5.6 ノンパラメトリックロジスティック回帰 5.7 多次元スプライン 5.8 正則化と再生核ヒルベルト空間 5.9 ウェーブレット平滑化 本章の参考文献 本章の演習 付録:スプラインの計算上考慮すべき事柄 |
|
第6章 カーネル平滑化法 |
|
6.1 1次元カーネル平滑化手法 6.2 カーネル幅の選択 6.3 Rpにおける局所回帰 6.4 Rpにおける構造化局所回帰モデル 6.5 局所尤度およびその他の手法 6.6 カーネル密度推定と識別 6.7 動径基底関数とカーネル 6.8 密度推定と識別のための混合モデル 6.9 計算上考慮すべき事柄 本章の参考文献 本章の演習 |
|
第7章 モデルの評価と選択 |
|
7.1 導入 7.2 バイアス,分散,モデルの複雑度 7.3 バイアス-分散分解 7.4 訓練誤差の最善度 7.5 訓練標本外誤差の推定 7.6 有効パラメータ数 7.7 ベイズ法とベイズ情報量規準 7.8 最小記述長 7.9 バプニック=チェルボネンキス次元 7.10 交差確認 7.11 ブートストラップ法 7.12 条件付きテスト誤差か期待テスト誤差か 本章の参考文献 本章の演習 |
|
第8章 モデル推論と平均化 |
|
8.1 導入 8.2 ブートストラップと最尤推定法 8.3 ベイズ法 8.4 ブートストラップ法とベイズ推論の関係 8.5 EMアルゴリズム 8.6 事後確率分布から標本抽出するためのMCMC 8.7 バギング 8.8 モデルの平均と統合 8.9 確率的探索:バンピング 本章の参考文献 本章の演習 |
|
第9章 加法的モデル,木,および関連手法 |
|
9.1 一般化加法的モデル 9.2 木に基づく方法 9.3 抑制的規則導出法 9.4 多変量適応的回帰スプライン 9.5 階層的エキスパート混合モデル 9.6 欠損データ 9.7 計算上考慮すべき事柄 本章の参考文献 本章の演習 |
|
第10章 ブースティングと加法的木 |
|
10.1 ブースティング法 10.2 ブースティングによる加法的モデル当てはめ 10.3 前向き段階的加法的モデリング 10.4 指数損失とアダブースト 10.5 なぜ指数損失関数か 10.6 損失関数とロバスト性 10.7 データマイニングの「万能」手法 10.8 例:スパムデータ 10.9 ブースティング木 10.10 勾配ブーステイングによる数値最適化 10.11 ブースティングのための木の適切な大きさ 10.12 正則化 10.13 説明性 10.14 具体例 本章の参考文献 本章の演習 |
|
第11章 ニューラルネットワーク |
|
11.1 導入 11.2 射影追跡回帰 11.3 ニューラルネットワーク 11.4 ニューラルネットワークの当てはめ 11.5 ニューラルネットワークを訓練するときのいくつかの問題 11.6 例:試行データ 11.7 例:郵便番号データ 11.8 考察 11.9 ベイズニューラルネットワークとNIPS 2003チャレンジ 11.10 計算上考慮すべき事柄 本章の参考文献 本章の演習 |
|
第12章 サポートベクトルマシンと適応型判別 |
|
12.1 導入 12.2 サポートベクトル分類器 12.3 サポートベクトルマシンとカーネル 12.4 線形判別分析の一般化 12.5 適応型判別分析 12.6 罰則付き判別分析 12.7 混合判別分析 12.8 計算上考慮すべき事柄 本章の参考文献 本章の演習 |
|
第13章 プロトタイプ法と最近傍探索 |
|
13.1 導入 13.2 プロトタイプ法 13.3 k最近傍分類器 13.4 適応的最近傍法 13.5 計算上考慮すべき事柄 本章の参考文献 本章の演習 |
|
第14章 教師なし学習 |
|
14.1 導入 14.2 相関ルール 14.3 クラスタ分析 14.4 自己組織化マップ 14.5 主成分分析と主曲線・主曲面 14.6 非負値行列分解 14.7 独立成分分析と探索的射影追跡 14.8 多次元尺度構成法 14.9 非線形次元削減と局所多次元尺度構成法 14.10 Googleページランクのアルゴリズム 本章の参考文献 本章の演習 |
|
第15章 ランダムフォレスト |
|
15.1 導入 15.2 ランダムフォレストの定義 15.3 ランダムフォレストの詳細 15.4 ランダムフォレストの解析 本章の参考文献 本章の演習 |
|
第16章 アンサンブル学習 |
|
16.1 導入 16.2 ブースティングと正則化軌跡 16.3 アンサンブルの学習 本章の参考文献 本章の演習 |
|
第17章 無向グラフィカルモデル |
|
17.1 導入 17.2 マルコフグラフとその性質 17.3 連続変数に対する無向グラフィカルモデル 17.4 離散変数に対する無向グラフィカルモデル 本章の参考文献 本章の演習 |
|
第18章 高次元の問題 |
|
18.1 pがNよりもかなり大きい場合 18.2 対角線形判別分析と最近傍縮小重心 18.3 2次正則化を用いた線形分類器 18.4 L1正則化を用いた線形分類器 18.5 特徴量が使えない場合の分類 18.6 高次元回帰:教師あり主成分分析 18.7 特徴量評価と多重検定問題 本章の参考文献 本章の演習 |