from sklearn import svm
にある
svm.sc のカーネルには
linear poly rbf sigmoid precomputed
がありデフォルトは rbf
precomputed についてはよくわかんね
Cの値を上げると学習データの正解率を上げられる
当たり前だが C を大きな値にすると過学習になる
↓こんな風に簡単にパラメータを設定できる
clf = svm.SVC(kernel = "rbf", C = 10)
K近傍
from sklearn.neighbors import KNeighborsClassifier
にある
一番近いところから順に K 個の多数決で自分のクラスを分類するので
K は奇数がいいらしい
K の値は n_neighbors=K といったように設定する
clf = KNeighborsClassifier(n_neighbors=2)
多層パーセプトロン
from sklearn.neural_network import MLPClassifier
にある
乱数の関係で毎回実行する度に結果が少し変わるので
パラメータをいじって比較したい時とかは
乱数のシード値を決める必要がある
clf= MLPClassifier(random_state=8)
ランダムフォレスト
from sklearn.ensemble import RandomForestClassifier
にある
乱数のシード値は多層パーセプトロンと同じように
clf = RandomForestClassifier(random_state=8)
と設定できる
ほかに
clf.max_depth = 1 枝分かれの数
clf.n_estimators=1 木の数
といった設定が必要
決定木
from sklearn import tree
にある
clf = tree.DecisionTreeClassifier()
時間がある時に加筆修正予定