2016-8-9_0-28-42_No-00

全員での多数決、反対

わたしは、国民投票をはじめとして、とりあえず少しでも関係する人全員で多数決をとるってやり方はよくないと思います。専門的なことは専門家に任せるべきです。もちろん専門家の話し合いでは決まらないこともあります。ただ多数決を取るにしても専門家だけでやったらよいです。

海外では、ベーシックインカムの見送り・EU離脱などいろいろなことを国民投票で決めてきました。これも、それぞれの専門家の間で決めるべきだったと思います。たとえばベーシックインカムについて、長年にわたっていろいろな情報を集めたり、真剣に考えてきたりした専門家がいます。その専門家の1票が、あまりベーシックインカムを真剣に考えてこなかった人の1票が同じなんですよ。おかしくないですか?

データ解析・分析の分野でも、「専門家」に集中させたほうが、結果がよくなります。アンサンブル学習を用いるときです。

アンサンブル学習

アンサンブル学習とは、あるデータセットからたくさんの回帰モデル・クラス分類モデルを構築しまして、新しいサンプルの目的変数の値を推定するときは、すべてのモデルを総合的に用いることです。最も単純なのは、回帰分析のときは複数の推定値の平均値もしくは中央値を最終的な推定値とし、クラス分類のときは複数の推定値の多数決の結果を最終的な推定値とします。アンサンブル学習のメリットについてはこちらをご覧ください。

アンサンブル学習の2つのメリット・利点(回帰分析・クラス分類) : 大学教授のブログ

重みの付け方についてはこちらをご覧ください。

あなたは、アンサンブル学習におけるモデルの重みを適切に決めることで精度が向上するって知ってましたか? : 大学教授のブログ

アンサンブル学習において各モデルの出力結果に重みをつける

複数の推定値の平均値を用いたり多数決をとったりする方法は、本当に単純なものです。回帰分析・クラス分類の精度をより向上させる方法も開発されています。

その1つが、各モデルの出力結果に重みを付ける方法です。なぜ精度が向上するかというと、アンサンブル学習でたくさんモデルを作ったときに、推定したいサンプルによって「精度の高いモデル」と「精度の低いモデル」が異なるためです。サンプルごとに、そのサンプルを推定するのが得意なモデルと、そのサンプルを推定するのが苦手なモデルがあるわけです。それらのモデルをすべて同じように扱って平均をとったり多数決をとったりするよりも、サンプルごとに「精度の高いモデル」には大きい重みを、「精度の低いモデル」には小さい重みをつけたほうがよい結果になります。

国民投票ではなく専門家の話し合いもしくは多数決にするべき

アンサンブル学習でも得意なモデルに重みを付けたほうが結果はよくなります。国民投票でも同じと考えます。すべての国民で多数決を取るより、国民投票の各テーマに得意な人たち、つまり専門家に重みをつけるべきです。専門家のみでの話し合い、もしくは多数決で決めたほうがよいのです。

まとめ

アンサンブル学習において、目的変数の値を推定したいサンプルごとに、その推定を得意なモデルに対して重みをつけたほうがよくなります。それと同じで、重要な決めごとについては、国民投票ではなくそれぞれの専門家に任せましょう。

ご案内。

オススメ記事セレクション。

twitterでも発信中。

この記事に興味を持っていただけましたら、ぜひフォローをお願いします!


無料メルマガでブログにない情報を配信中。

データ解析・分析に興味がありましたらぜひ登録をお願いします!
無料メルマガの登録はこちら