バギング

機械学習および
データマイニング
問題
理論
  • 偏りと分散のトレードオフ
  • 計算論的学習理論(英語版)
  • 経験損失最小化(英語版)
  • オッカム学習(英語版)
  • PAC学習
  • 統計的学習(英語版)
  • VC理論(英語版)
学会・論文誌等
  • NIPS(英語版)
  • ICML(英語版)
  • ML(英語版)
  • JMLR(英語版)
  • ArXiv:cs.LG

カテゴリ Category:機械学習

カテゴリ Category:データマイニング

ブートストラップ集約: bootstrap aggregating)やブートストラップ・アグリゲーティングバギング: bagging)とは、統計的分類および回帰で使われる機械学習アルゴリズムの安定性と精度を改善するために設計されたアンサンブル学習メタアルゴリズムである。バギングはバリアンス(分散)を縮小させ、過剰適合を避けることも助ける。通常は決定木に適用されるものの、どんな手法にも使うことができる。バギングはモデル平均化手法の一種である。

手法

大きさ n の訓練データ D があり、離散一様分布に従い重複を認めてサンプリングを行い(ブートストラップ法)、サイズ n' の新しい訓練データ D' を m 個生成する。重複を認めてサンプリングしているので、同じデータが複数回出現することがある。m 個の訓練データセット D' から m 回学習し、平均(回帰の場合)や投票(分類の場合)などで m 個の出力をまとめて最終的な学習結果の出力とする。

歴史

Bagging (Bootstrap aggregating) は、ランダムに生成された訓練セットの分類を組み合わせることによって分類を改善するために1994年[1]レオ・ブレイマン(英語版)によって提唱された。

参照

  1. ^ Breiman, Leo (September 1994). “Bagging Predictors”. Department of Statistics, University of California Berkeley Technical Report No. 421. https://www.stat.berkeley.edu/~breiman/bagging.pdf 2019年7月28日閲覧。. 

関連項目

標本調査
要約統計量
連続確率分布
位置
分散
モーメント
カテゴリデータ
推計統計学
仮説検定
パラメトリック
ノンパラメトリック
その他
区間推定
モデル選択基準
その他
ベイズ統計学
確率
その他
相関
モデル
回帰
線形
非線形
時系列
分類
線形
二次
非線形
その他
教師なし学習
クラスタリング
密度推定(英語版)
その他
統計図表
生存分析
歴史
  • 統計学の創始者
  • 確率論と統計学の歩み
応用
出版物
  • 統計学に関する学術誌一覧
  • 重要な出版物
全般
その他
カテゴリ カテゴリ
スタブアイコン

この項目は、数学に関連した書きかけの項目です。この項目を加筆・訂正などしてくださる協力者を求めています(プロジェクト:数学/Portal:数学)。

  • 表示
  • 編集