検索結果書誌詳細

  • 書誌の詳細です。 現在、予約は 0 件です。
  • 「資料情報」から書誌を予約カートに入れるページに移動します。

蔵書情報

この資料の蔵書に関する統計情報です。現在の所蔵数 在庫数 予約数などを確認できます。

所蔵数 1 在庫数 1 予約数 0

書誌情報サマリ

書名

統計的学習の基礎 

著者名 Trevor Hastie/著
著者名ヨミ Trevor Hastie
出版者 共立出版
出版年月 2014.6


この資料に対する操作

カートに入れる を押すと この資料を 予約する候補として予約カートに追加します。

いますぐ予約する を押すと 認証後この資料をすぐに予約します。

この資料に対する操作

電子書籍を読むを押すと 電子図書館に移動しこの資料の電子書籍を読むことができます。


登録するリストログインメモ


資料情報

各蔵書資料に関する詳細情報です。

No. 所蔵館 配架場所 請求記号 資料番号 資料種別 状態 個人貸出 在庫
1 西部図書館一般開架00713/50/1102379557一般在庫 

書誌詳細

この資料の書誌詳細情報です。

タイトルコード 1000100184691
書誌種別 図書
書名 統計的学習の基礎 
書名ヨミ トウケイテキ ガクシュウ ノ キソ
データマイニング・推論・予測
言語区分 日本語
著者名 Trevor Hastie/著   Robert Tibshirani/著   Jerome Friedman/著   杉山 将/監訳   井手 剛/監訳   神嶌 敏弘/監訳   栗田 多喜夫/監訳   前田 英作/監訳   井尻 善久/[ほか]訳
著者名ヨミ Trevor Hastie Robert Tibshirani Jerome Friedman スギヤマ マサシ イデ ツヨシ カミシマ トシヒロ クリタ タキオ マエダ エイサク イジリ ヨシヒサ
著者名原綴 Hastie Trevor J. Tibshirani Robert Friedman Jerome
出版地 東京
出版者 共立出版
出版年月 2014.6
本体価格 ¥14000
ISBN 978-4-320-12362-5
ISBN 4-320-12362-5
数量 25,853p
大きさ 22cm
分類記号 007.13
件名 パターン認識   数理統計学
注記 原タイトル:The elements of statistical learning 原著第2版の翻訳
注記 文献:章末,p809〜831
内容紹介 統計的学習分野の世界的に著名なテキストの全訳。回帰や分類などの教師あり学習の入門的な話題から、グラフィカルモデルや高次元学習問題に対するスパース学習法などの最新の話題までを幅広く網羅する。演習問題も収録。
目次タイトル 第1章 序章
第2章 教師あり学習の概要
2.1 導入 2.2 変数の種類と用語 2.3 予測のための二つの簡単なアプローチ:最小2乗法と最近傍法 2.4 統計的決定理論 2.5 高次元での局所的手法 2.6 統計モデル,教師あり学習,関数近似 2.7 構造化回帰モデル 2.8 制限付き推定法 2.9 モデル選択と,バイアスと分散のトレードオフ 本章の参考文献 本章の演習
第3章 回帰のための線形手法
3.1 導入 3.2 線形回帰モデルと最小2乗法 3.3 変数選択 3.4 縮小推定 3.5 入力に対して線形変換を行う方法 3.6 考察:選択法と縮小法の比較 3.7 複数の目的変数の縮小推定と変数選択 3.8 lassoと関連する解追跡アルゴリズムに関する詳細 3.9 計算上考慮すべき事柄 本章の参考文献 本章の演習
第4章 分類のための線形手法
4.1 導入 4.2 指示行列の線形回帰 4.3 線形判別分析 4.4 ロジスティック回帰 4.5 分離超平面 本章の参考文献 本章の演習
第5章 基底展開と正則化
5.1 導入 5.2 区分的多項式とスプライン 5.3 フィルタリングと特徴抽出 5.4 平滑化スプライン 5.5 平滑化パラメータの自動選択 5.6 ノンパラメトリックロジスティック回帰 5.7 多次元スプライン 5.8 正則化と再生核ヒルベルト空間 5.9 ウェーブレット平滑化 本章の参考文献 本章の演習 付録:スプラインの計算上考慮すべき事柄
第6章 カーネル平滑化法
6.1 1次元カーネル平滑化手法 6.2 カーネル幅の選択 6.3 Rpにおける局所回帰 6.4 Rpにおける構造化局所回帰モデル 6.5 局所尤度およびその他の手法 6.6 カーネル密度推定と識別 6.7 動径基底関数とカーネル 6.8 密度推定と識別のための混合モデル 6.9 計算上考慮すべき事柄 本章の参考文献 本章の演習
第7章 モデルの評価と選択
7.1 導入 7.2 バイアス,分散,モデルの複雑度 7.3 バイアス-分散分解 7.4 訓練誤差の最善度 7.5 訓練標本外誤差の推定 7.6 有効パラメータ数 7.7 ベイズ法とベイズ情報量規準 7.8 最小記述長 7.9 バプニック=チェルボネンキス次元 7.10 交差確認 7.11 ブートストラップ法 7.12 条件付きテスト誤差か期待テスト誤差か 本章の参考文献 本章の演習
第8章 モデル推論と平均化
8.1 導入 8.2 ブートストラップと最尤推定法 8.3 ベイズ法 8.4 ブートストラップ法とベイズ推論の関係 8.5 EMアルゴリズム 8.6 事後確率分布から標本抽出するためのMCMC 8.7 バギング 8.8 モデルの平均と統合 8.9 確率的探索:バンピング 本章の参考文献 本章の演習
第9章 加法的モデル,木,および関連手法
9.1 一般化加法的モデル 9.2 木に基づく方法 9.3 抑制的規則導出法 9.4 多変量適応的回帰スプライン 9.5 階層的エキスパート混合モデル 9.6 欠損データ 9.7 計算上考慮すべき事柄 本章の参考文献 本章の演習
第10章 ブースティングと加法的木
10.1 ブースティング法 10.2 ブースティングによる加法的モデル当てはめ 10.3 前向き段階的加法的モデリング 10.4 指数損失とアダブースト 10.5 なぜ指数損失関数か 10.6 損失関数とロバスト性 10.7 データマイニングの「万能」手法 10.8 例:スパムデータ 10.9 ブースティング木 10.10 勾配ブーステイングによる数値最適化 10.11 ブースティングのための木の適切な大きさ 10.12 正則化 10.13 説明性 10.14 具体例 本章の参考文献 本章の演習
第11章 ニューラルネットワーク
11.1 導入 11.2 射影追跡回帰 11.3 ニューラルネットワーク 11.4 ニューラルネットワークの当てはめ 11.5 ニューラルネットワークを訓練するときのいくつかの問題 11.6 例:試行データ 11.7 例:郵便番号データ 11.8 考察 11.9 ベイズニューラルネットワークとNIPS 2003チャレンジ 11.10 計算上考慮すべき事柄 本章の参考文献 本章の演習
第12章 サポートベクトルマシンと適応型判別
12.1 導入 12.2 サポートベクトル分類器 12.3 サポートベクトルマシンとカーネル 12.4 線形判別分析の一般化 12.5 適応型判別分析 12.6 罰則付き判別分析 12.7 混合判別分析 12.8 計算上考慮すべき事柄 本章の参考文献 本章の演習
第13章 プロトタイプ法と最近傍探索
13.1 導入 13.2 プロトタイプ法 13.3 k最近傍分類器 13.4 適応的最近傍法 13.5 計算上考慮すべき事柄 本章の参考文献 本章の演習
第14章 教師なし学習
14.1 導入 14.2 相関ルール 14.3 クラスタ分析 14.4 自己組織化マップ 14.5 主成分分析と主曲線・主曲面 14.6 非負値行列分解 14.7 独立成分分析と探索的射影追跡 14.8 多次元尺度構成法 14.9 非線形次元削減と局所多次元尺度構成法 14.10 Googleページランクのアルゴリズム 本章の参考文献 本章の演習
第15章 ランダムフォレスト
15.1 導入 15.2 ランダムフォレストの定義 15.3 ランダムフォレストの詳細 15.4 ランダムフォレストの解析 本章の参考文献 本章の演習
第16章 アンサンブル学習
16.1 導入 16.2 ブースティングと正則化軌跡 16.3 アンサンブルの学習 本章の参考文献 本章の演習
第17章 無向グラフィカルモデル
17.1 導入 17.2 マルコフグラフとその性質 17.3 連続変数に対する無向グラフィカルモデル 17.4 離散変数に対する無向グラフィカルモデル 本章の参考文献 本章の演習
第18章 高次元の問題
18.1 pがNよりもかなり大きい場合 18.2 対角線形判別分析と最近傍縮小重心 18.3 2次正則化を用いた線形分類器 18.4 L1正則化を用いた線形分類器 18.5 特徴量が使えない場合の分類 18.6 高次元回帰:教師あり主成分分析 18.7 特徴量評価と多重検定問題 本章の参考文献 本章の演習



内容細目

関連資料

この資料に関連する資料を 同じ著者 出版年 分類 件名 受賞などの切り口でご紹介します。

2014
007.13
パターン認識 数理統計学
前のページへ

本文はここまでです。


ページの終わりです。