バリデーション結果は、少数の比較には使ってよいが最適化に使ってはいけない!~外部バリデーションや(ダブル)クロスバリデーションでは何を評価しているのか?評価するときのジレンマとは?~

回帰モデルやクラス分類モデルを評価するときの話です。評価のときに、クロスバリデーションやダブルクロスバリデーションが使われることもありますが、

回帰モデル・クラス分類モデルを評価・比較するためのモデルの検証 (Model validation)
いろいろな回帰モデル・クラス分類モデルを構築したり、モデルの中のハイパーパラメータ (PLSの成分数など) を決めたりするとき、モデルを評価・比較しなければなりません。そのためのモデルの検証 (model validation) の方法につ...
ダブルクロスバリデーション(モデルクロスバリデーション)でテストデータいらず~サンプルが少ないときのモデル検証~
回帰モデルやクラス分類モデルを検証するときの話です。モデルの検証一般的には、データセットが与えられたとき、サンプルをモデル構築用サンプル (トレーニングデータ, training dataset) とモデル検証用サンプル (テストデータ, ...

 

それぞれ何のために、何を評価しているのか?についてお話します。

 

そもそも、どうしてモデルを評価したいかというと、複数のモデルがあるときにどれを使えばよいのか決めたいからです。たとえば回帰分析して、部分的最小二乗法 (Partial Least Squares, PLS) とサポートベクター回帰 (Support Vector Regression, SVR) でそれぞれ回帰モデルを構築したとします。

部分的最小二乗回帰(Partial Least Squares Regression, PLS)~回帰分析は最初にこれ!~
部分的最小二乗回帰 (Partial Least Squares Regression, PLS) について、pdfとパワーポイントの資料を作成しました。データセットが与えられたときに、PLSで何ができるか、どのようにPLSを計算するかが説...
サポートベクター回帰(Support Vector Regression, SVR)~サンプル数10000以下ならこれを使うべし!~
サポートベクター回帰(Support Vector Regression, SVR)について、pdfとパワーポイントの資料を作成しました。データセットが与えられたときに、SVRで何ができるか、SVRの特徴、どのように計算するかが説明されてい...

 

このとき、PLS モデルと SVR モデルとで、どちらのほうがよいのかを決めるため、2つのモデルを評価・比較します。

たとえば 1000 サンプルあるときに、1000 サンプルで PLS モデルと SVR モデルを構築して、同じ 1000 サンプルを推定した結果を評価に使ってはどうでしょうか。これはよくありません。PLS モデルや SVR モデルでやりたいことは、1000 サンプルにおける説明変数 (記述子・特徴量・入力変数) X と目的変数 Y との間の関係を説明することではありません。新しいサンプルの X の値をモデルに入力して、y の値を精度よく推定することです。1000 サンプルで構築したモデルの推定性能を、同じ 1000 サンプルで評価すると、新しいサンプルに対する推定性能を評価できません。

なので、まず 1000 サンプルを 2 つに分けます。たとえば 700 サンプルと 300 サンプルといった感じです (あわせて 1000 サンプルです)。700 サンプルで PLS モデルと SVR モデルを構築して、300 サンプルの推定結果を 2 つのモデルの評価に使おう、というわけです。PLS モデルのほうが SVR モデルより 300 サンプルを精度よく推定できたら、SVR モデルではなく PLS モデルを使おう!となります。

一点、注意することは、最終的に用いる PLS モデルは、700 サンプルで構築された PLS モデルではなく、すべてのサンプルである 1000 サンプルで構築された PLS モデルです。本当は、1000 サンプルで構築された PLS モデルと SVR モデルの新しいサンプルに対する推定性能を評価したいのです。しかしそれは難しいので、700 サンプルで構築された PLS モデルと SVR モデルの新しいサンプルに対する推定性能の優劣は、1000 サンプルで構築された PLS モデルと SVR モデルの新しいサンプルに対する推定性能の優劣と等しいと仮定して、評価しているわけです。

そのため、700 サンプルで構築されたモデルと 1000 サンプルで構築されたモデルとは似ている必要がありますので、700 サンプルと 1000 サンプルも似ていなければなりません。実際、1000 サンプルから 700 サンプルを選んでおり、実は 700 サンプルといわず、なるべく多くの (1000 に近い数の) サンプルを使いたいのが正直なところです。ただ、このサンプル数を大きくしてしまうと、構築したモデルを評価するようのサンプル (さきほどの 300 サンプル) が少なくなってしまい、評価結果の信憑性がなくなってしまいます。このあたりがジレンマなのです。

ジレンマは仕方ないとしても、1000 サンプルをたとえば 700 サンプルと 300 サンプルとにあらかじめ分けておくことで、PLS モデルと SVR モデルのどちらを用いるか決められます。

ただし、PLS モデルといっても、実は一つではありません。主成分を何成分まで用いるかで PLS モデルは変わります。SVR モデルについても、C, ε, γ (ガウシアンカーネルを用いる場合) としてどの値を用いるかで SVR モデルは変わります。詳しくは PLS や SVR の説明をご覧ください。

部分的最小二乗回帰(Partial Least Squares Regression, PLS)~回帰分析は最初にこれ!~
部分的最小二乗回帰 (Partial Least Squares Regression, PLS) について、pdfとパワーポイントの資料を作成しました。データセットが与えられたときに、PLSで何ができるか、どのようにPLSを計算するかが説...
サポートベクター回帰(Support Vector Regression, SVR)~サンプル数10000以下ならこれを使うべし!~
サポートベクター回帰(Support Vector Regression, SVR)について、pdfとパワーポイントの資料を作成しました。データセットが与えられたときに、SVRで何ができるか、SVRの特徴、どのように計算するかが説明されてい...

 

このような主成分の数, C, ε, γ のようなパラメータのことをハイパーパラメータといいます。

では、ハイパーパラメータの値の異なる、複数の PLS モデル・複数の SVR モデルがあるなかで、すべて 700 サンプルでモデルを構築して、300 サンプルの推定を行い、推定結果が最もよいモデルをそれらの中から選んで、そのモデル (たとえば成分数が 3 の PLS モデル) を最終的なモデルとして使うことにしましょうか?

実はこれはよくありません。300 サンプルの推定結果について、少数のモデルの推定性能を比較するのには使ってよいですが、たくさんのモデルの中から最良なものを選ぶような最適化には使えません。この理由は先ほどのジレンマと関係します。300 サンプルはただただ 1000 サンプルから選んだサンプルです。700 サンプルで構築されたモデルにおいて、300 サンプルの推定結果がよければ、1000 サンプルで構築したモデルの新しいサンプルに対する推定結果もよい、と仮定しているだけなのです。300 サンプルの推定結果がよいモデルを多数のモデルの中から選んで最適化してしまうと、その 300 サンプルだけに特化したモデルになってしまいます。300 サンプルにオーバーフィットしてしまうわけです。

人工知能・機械学習のときには過学習 (オーバーフィッティング) に気をつけよう!~過学習とその対処法~
応化先生と生田さんが過学習 (オーバーフィッティング) について話しています。応化:今日は過学習についてです。生田:過学習?学習し過ぎるってこと?応化:その通りです。生田:だったら悪いことじゃなさそうに聞こえるけど・・・。学習をたくさんする...

 

なので、300 サンプルの推定結果を比較するときまでに、少数のモデルに絞っておく必要があるのです。ただ、いくつが “少数” なのかは不明です。実際は、PLS モデルで一つ、SVR モデルで一つ、といった具合に、手法ごとに一つのモデル、つまり一つのハイパーパラメータの値、を事前に選んでおくのが一般的です。

このPLSやSVRといった一つの手法の中における、事前のモデルの絞り込み、言い換えるとハイパーパラメータの選択、には、700 サンプルでクロスバリデーションをすることが一般的です。

回帰モデル・クラス分類モデルを評価・比較するためのモデルの検証 (Model validation)
いろいろな回帰モデル・クラス分類モデルを構築したり、モデルの中のハイパーパラメータ (PLSの成分数など) を決めたりするとき、モデルを評価・比較しなければなりません。そのためのモデルの検証 (model validation) の方法につ...

 

クロスバリデーションで、PLS, SVR などの一つの手法があるときに、ハイパーパラメータの値を変えてそれぞれモデルの推定性能を評価し、それが最も高いハイパーパラメータの値を選びます。もちろん、クロスバリデーションといっても一つのバリデーションですので、先ほどの 700 サンプルと 300 サンプルに分けて推定性能を評価するとき話 (ジレンマやオーバーフィッティング) はそのまま当てはまります。たとえばクロスバリデーションで fold 数を決めるときには、ジレンマを考える必要があります。

もちろん、クロスバリデーションを使わずに、700 サンプルをさらに 500 サンプルと 200 サンプルといった具合に分け、200 サンプルの推定性能が高いハイパーパラメータの値を選ぶ、といったこともできます。ただ、そうするとさらにモデル構築用のサンプル数が小さくなってしまいますし、その 200 サンプルのみに特化したハイパーパラメータが選ばれてしまう恐れもあります。そのため、クロスバリデーションが使われます。

1000 サンプルがあるとき、まず 700 サンプルと 300 サンプルとに分けます。そして 700 サンプルでクロスバリデーションして一つの PLS モデル、一つの SVR を選びます。最後に、300 サンプルの推定結果を 2 つのモデル (PLS モデル・SVR モデル) で比較して、どちらのモデルを用いるか決めます。

上の、” 700 サンプルと 300 サンプルとに分ける” ところにもクロスバリデーションを使おう、というのがダブルクロスバリデーションです。

ダブルクロスバリデーション(モデルクロスバリデーション)でテストデータいらず~サンプルが少ないときのモデル検証~
回帰モデルやクラス分類モデルを検証するときの話です。モデルの検証一般的には、データセットが与えられたとき、サンプルをモデル構築用サンプル (トレーニングデータ, training dataset) とモデル検証用サンプル (テストデータ, ...

 

クロスバリデーションではある手法における、ハイパーパラメータの値ごとのモデルの推定性能を評価し、ダブルクロスバリデーションでは複数の手法間でのモデルの推定性能を評価します。ダブルクロスバリデーションを使うときでも使わないときでも、最終的なモデル (PLS モデルか SVR モデル) は、すべてのサンプル (1000 サンプル) で構築します。ダブルクロスバリデーションでも、700 サンプルと 300 サンプルに分けて推定性能を評価するとき話 (ジレンマやオーバーフィッティング) はそのまま当てはまりますので、注意が必要です。

 

以上です。

質問やコメントなどありましたら、twitter, facebook, メールなどでご連絡いただけるとうれしいです。

タイトルとURLをコピーしました