過学習
機械学習においては過学習を避けるために,訓練誤差ではなく汎化誤差を可能なかぎり小さくする手法である正則化を用いることが多い.また複数のモデルの予測結果の平均を利用するアンサンブル学習がある.他にもディープニューラルネットワーク(DNN)に対しては,ランダムに一定の割合のノードを削除して学習を行うドロップアウトが有効とされている.正則化手法にはいくつかのパラメータをスパースにするLassoなどがある.
ドロップアウト
Dropoutは、階層の深いニューラルネットを精度よく最適化するためにHintonらによって提案された手法です。
Dropoutでは、ニューラルネットワークを学習する際に、ある更新で層の中のノードのうちのいくつかを無効にして(そもそも存在しないかのように扱って)学習を行い、次の更新では別のノードを無効にして学習を行うことを繰り返します。これにより学習時にネットワークの自由度を強制的に小さくして汎化性能を上げ、過学習を避けることができます。隠れ層においては、一般的に50%程度を無効すると良いと言われています。当初Dropoutは全結合のみに適用されていましたが、先ほど挙げた論文によれば、畳み込み層等に適用しても同様に性能を向上させることが確かめられています。
Lasso正則化
Ridge正則化

Elastic Net


