SVR Regressor Linear(回帰分析)【Pythonとscikit-learnで機械学習:第18回】

SVR(Linear)回帰によって、連続データを線形回帰分析する手法を、実装・解説します。

本記事ではSVMをベースとした回帰手法であるSVR(Support Vector Regression)を実装します。

SVMはカーネルトリックで非線形を扱いますが、本記事ではまず線形カーネルによる回帰手法を紹介します。

SVMを回帰解析に使用するってあまり直感的ではないですが、そのあたりも説明したいと思います。

SVR Linear回帰分析は以下のscikit-learnマップの黒矢印に対応します。

[scikit-learnのマップ]

目的変数の量を求める→サンプル数10万以下→説明変数xの特徴量のすべてが重要→[SVR linear]

です。

SVR linearの実装

実装して、SGD回帰との結果を比較します。

これまでと同様に、住宅価格のデータを使用して実装します。

被説明変数yは住宅価格の中央値です。

本記事では、部屋数(RM)の特徴量のみを使用した回帰を行います。

実装コードは以下の通りです。

結果は次の通りになります。

緑色がSVRによる結果です。

今回はSVRの方が誤差は大きくなりました。

重要なのは、SDGとは結果が異なるということです。

実装コードを解説します。

# 解説6:SVR linear Regressorを適用する——————————————-
clf_svr = svm.SVR(kernel=’linear’, C=1e3, epsilon=2.0)

ここでSVR回帰を指定しています。

カーネルはlinearを指定しています。

Cはペナルティ項の係数です。

epsilonは回帰直線からどれだけ離れたらペナルティをかけるかを指定します。

それでは「結局、SVRって何をやっていたの?」を説明します。

SVRの心

正確な情報は以下をご覧ください。

scikit-learnのSVRの解説ページ

scikit-learnのSVRの解説ページ2

SVRとはSVMを回帰分析に利用した手法です。

とはいえ、直感的には分かりにくいです。

識別平面を作るSVC(SVM Classification)を回帰解析に使用することについて説明します。

SVCの場合、マージン最大化といって、識別平面からそれぞれのクラスの最近傍の点への距離が最大となるように識別平面を設定しました。

SVRの場合この部分は、重みの最小化となり、重み係数wの二乗和(L2ノルム)が最小となるように設定します。

SVCの場合、ソフトマージンといってスラック変数を用意し、識別平面できちんと識別できなかった誤識別された点に対してペナルティを与えました。

SVRの場合も同様に回帰直線から一定の距離(epsilon)まではペナルティを与えませんが、それ以上離れた点に対してはペナルティを与えます。

ペナルティはヒンジ関数で与えられます。

またペナルティをどれほど考慮するかはCで設定します。

以上の点を踏まえ、SVRを通常の線形回帰と比較した特徴を述べます。

定量的には、線形回帰の場合は回帰直線から少しでも離れると、その二乗誤差を考慮します。

一方SVRの場合は回帰直線から距離epsilonまでは誤差を考慮せず、それ以上は絶対値で誤差を考慮します。

そのため定性的にはSVRの場合、非説明変数yにのっている小さな誤差に対して強い回帰直線を作ることができます。

またSVMなので、カーネルを利用することが容易であり、単純に線形回帰でうまくフィッティングできないデータに対しても、カーネルトリックでフィッティングすることが可能になります。

カーネルトリックの非線形フィッティングは次回説明します。

SVRについて詳細はこちらのスライドが分かりやすいです。

サポートベクター回帰(Support Vector Regression, SVR)

 

以上、Pythonとscikit-learnで学ぶ機械学習入門|第18回:SVR linear回帰での回帰分析でした。

次回はSVR(Support Vector Regression)のカーネルによる非線形回帰について説明します。

【目次】Python scikit-learnの機械学習アルゴリズムチートシートを全実装・解説
scikit-learnのアルゴリズムチートマップで紹介されている手法を、全て実装・解説してみました。 ...