『データ解析の手順』における「5.回帰モデルもしくはクラス分類モデルを作る」についてです。なお実行するためのプログラムについてはこちらをご覧ください。
[New] PCAとPLSとを組み合わせた半教師あり学習のプログラムを簡単に入手できるようになりました!
それぞれのURLからお求めください!
MATLAB: https://note.mu/univprof/n/n36de754d51ff
R: https://note.mu/univprof/n/nb909bf47235a
Python: https://note.mu/univprof/n/nab00c75149c8
PCAとPLSとを組み合わせた半教師あり学習(半教師付き学習)
こちらに主成分分析 (Principal Component Analysis, PCA) と部分的最小二乗法 (Partial Least Squares, PLS) とを組み合わせた半教師あり学習(半教師付き学習)による回帰分析について書きました。
半教師あり学習のメリットはこちらをご覧ください。
PCAとPLSとを組み合わせた半教師あり学習は以下の手順で行われます。
- PCAにおける累積寄与率のしきい値を決める
PCAで使用する主成分の数は、累積寄与率がこの値を超える最初の成分数とします。たとえば、しきい値を95%とすることで、5%をノイズとみなして除去することができます。 - 目的変数の値のあるデータセットと目的変数の値のないデータセットとを結合する (縦のサンプル方向につなげる)
- 結合したデータの説明変数のオートスケーリングをする
オートスケーリングとは各変数から平均値を引いて平均を0にするセンタリングと、各変数を標準偏差で割って標準偏差を1にするスケーリングを両方行うことです。スケーリングは任意ですが、センタリングは必ず行いましょう。 - オートスケーリング後のデータに対してPCAを実行して主成分スコアとローディングを得る
- 1. のしきい値から、使用する主成分数を決める
- 目的変数の値のあるサンプルのみ、主成分スコアを取り出す
- 取り出された主成分スコアと目的変数とをオートスケーリングする
スケーリングは任意ですが、センタリングは必須です。 - 成分数を1, 2, …, m として、それぞれにおいてクロスバリデーションにより目的変数の推定値を得る
mは使用した主成分数です。クロスバリデーションとして、5-foldクロスバリデーションや2-foldクロスバリデーションを用いましょう。 - 成分数ごとに目的変数の実測値と推定値との間で、Root-Mean-Squared Error (RMSE) を計算する
- RMSEの値が最小となる成分数を最適成分数とする
最初の極大値をとる成分数を最適成分数とする方法もあります。 - 最適成分数におけるPLSモデルを構築し、標準回帰係数を得る
- 最適成分数における目的変数の計算値と実測値との間で、決定係数・RMSE (r2C・ RMSEC)を計算し、同じく最適成分数における目的変数のクロスバリデーション予測値と実測値との間で、決定係数・RMSE (r2CV・RMSECV)を計算する
r2Cは目的変数の持つ情報の何割を説明できるモデルかを表します。
RMSECはモデルのもつ平均的な誤差を表します。
r2CVは目的変数のもつ情報の何割を新しいデータに対して推定できる可能性があるかを表します。
RMSECVは新しいデータを推定した場合に平均的な誤差はどれくらいになるかを表します。
もちろんクロスバリデーションは、完全な外部データを用いた検証方法ではないため、r2CV・RMSECVが適切に『新しいデータ』に対する性能を表現しているわけではありませんが、その指標にはなります。r2CVが大きく、RMSECVが小さいモデルが良いモデルといえます。またr2Cとr2CVとの差が大きかったり、RMSECとRMSECVとの差が大きかったりすると、モデルがオーバーフィットしている危険があります。 - 目的変数の実測値と計算値とのプロット、そして実測値と推定値とのプロットを確認する
これにより外れ値がないか確認できます。 - [新しいデータの予測をするとき] 説明変数の新しいデータから1. オートスケーリングした時の説明変数の平均値を引き、標準偏差で割る
- [新しいデータの予測をするとき] 上の4.で得られたローディングを用いて使用する主成分数までの主成分スコアを計算する
- [新しいデータの予測をするとき] 主成分スコアの新しいデータから7.で オートスケーリングした時の主成分の平均値を引き、標準偏差で割る
- [新しいデータの予測をするとき] 上の11.で得られた標準回帰係数により目的変数の推定値を計算する
- [新しいデータの予測をするとき] 推定値に7.でオートスケーリングした時の目的変数の標準偏差をかけて平均値を足す(元のスケールに戻す)
予測する際に工夫が必要なのは、最終的に得られた最適成分数における回帰係数は、説明変数・目的変数がオートスケーリングされた後の回帰係数、つまり標準回帰係数であるためです。そこで、新しく予測したい説明変数のデータがあれば、そのデータからオートスケーリングした時の説明変数の平均値を引き、 標準偏差で割ってから回帰係数により目的変数の推定値を計算し、その後その推定値にオートスケーリングした時の目的変数の標準偏差をかけて平均値を足す、つまり元のスケールに戻す必要があります。
ご案内。
オススメ記事セレクション。
- 20人の学生に対する研究テーマの決め方
- 学会・会議・講演会・勉強会における3つの良い質問と2つの悪い質問
- 大学教員の5つのメリット (とデメリット?)
- 現役データサイエンティストへの『人工知能って怖いの?』に対する回答
- 人工知能との未来における人の役割~現役のデータサイエンティストのメッセージ~
- 集中する時間を確保するために大学教授が行っている8つのこと
twitterでも発信中。
この記事に興味を持っていただけましたら、ぜひフォローをお願いします!
Follow @univprofblog1Tweets by univprofblog1
無料メルマガでブログにない情報を配信中。
データ解析・分析に興味がありましたらぜひ登録をお願いします!
無料メルマガの登録はこちら