機械学習および データマイニング |
---|
|
|
|
|
|
|
|
|
|
理論 - 偏りと分散のトレードオフ
- 計算論的学習理論(英語版)
- 経験損失最小化(英語版)
- オッカム学習(英語版)
- PAC学習
- 統計的学習(英語版)
- VC理論(英語版)
|
学会・論文誌等 - NIPS(英語版)
- ICML(英語版)
- ML(英語版)
- JMLR(英語版)
- ArXiv:cs.LG
|
|
Category:機械学習 Category:データマイニング |
|
ブートストラップ集約(英: bootstrap aggregating)やブートストラップ・アグリゲーティングやバギング(英: bagging)とは、統計的分類および回帰で使われる機械学習アルゴリズムの安定性と精度を改善するために設計されたアンサンブル学習メタアルゴリズムである。バギングはバリアンス(分散)を縮小させ、過剰適合を避けることも助ける。通常は決定木に適用されるものの、どんな手法にも使うことができる。バギングはモデル平均化手法の一種である。
手法
大きさ n の訓練データ D があり、離散一様分布に従い重複を認めてサンプリングを行い(ブートストラップ法)、サイズ n' の新しい訓練データ D' を m 個生成する。重複を認めてサンプリングしているので、同じデータが複数回出現することがある。m 個の訓練データセット D' から m 回学習し、平均(回帰の場合)や投票(分類の場合)などで m 個の出力をまとめて最終的な学習結果の出力とする。
歴史
Bagging (Bootstrap aggregating) は、ランダムに生成された訓練セットの分類を組み合わせることによって分類を改善するために1994年[1]にレオ・ブレイマン(英語版)によって提唱された。
参照
- ^ Breiman, Leo (September 1994). “Bagging Predictors”. Department of Statistics, University of California Berkeley Technical Report No. 421. https://www.stat.berkeley.edu/~breiman/bagging.pdf 2019年7月28日閲覧。.
関連項目
| この項目は、数学に関連した書きかけの項目です。この項目を加筆・訂正などしてくださる協力者を求めています(プロジェクト:数学/Portal:数学)。 |