「MTシステムの多重共線性の対策に関する研究」を読んだ

こちらを読んだので、感想(?)を書きます。それにしても、note書くのひさしぶりです。

まとめると、

・MTシステムで使われる方法の一つであるMT法では多重共線性が問題となる

・MT法の中で逆行列の計算に一般化逆行列を使うと多重共線性に対応できる

ということらしいです。


重回帰分析において,独立変数間に強い相関がある場合,または強い一次従属関係(ある変数が別の変数の線形結合になっていること:例えば,「x2= 2x1+3」)になっていること)がある場合を「多重共線性(multi-collinearity)の問題がある」という。

独立変数に相関があると困る、って話ですね。重回帰分析ではどんなことが起きるのか、についてはよく理解していないですが、MT法においては逆行列が計算できない=得たい結果(マハラノビス距離の演算結果)が出ない、ということが起きるみたいですね。

対策としては多重共線性がある変数を取り除く、というのが一番楽な気がしますが、それをしないで何とかする方法はないのか、ということですかね。

「一般化逆行列法」は,マニュアルで正確多重共線性に関係している項目を調査し,一部の項目を削除する工数を削減でき,その結果も信頼できる。

たぶんここですね。マニュアルで取り除くと工数かかるから、できれば避けたいと。


従来の「ガウス・ジョルダン法」では,ランク落ちが発生した場合,理論的にも逆行列は定義(計算)できないが,新しい「一般化逆行列法」では,「固有値」「固有ベクトル」を求め,有効な「固有値」のみを使って,擬逆行列(近似的な逆行列)を求めているため,計算できない問題は発生しない。

ここがちょっと理解できなかったところです。同じように逆行列求めているのに結果が違う?行列計算を勉強しないと理解できないですかね…。はい。


機械学習における多重共線性に興味があって調べていてこの研究に当たったので、この研究で何か解決できたかというと、そういうことはありません。ただ、多重共線性がある変数を取り除くという選択肢以外に、そのままにして他の手段で計算する、という選択もできるんだな、ということは勉強になりました。

他の記事では、機械学習においては多重共線性を気にする必要はない、ということも見かけたので。おそらくそれも条件付きで気にする必要がない、ということだと思うので、ちゃんと理解して使おうと思います。





この記事が気に入ったらサポートをしてみませんか?