※日経ソフトウエア 2018年11月号の記事を再構成

ディープラーニングに代表される機械学習が、数式が苦手な人でも“ざっくり分かる”短期集中連載講座。第5回は代表的な機械学習アルゴリズムのうち、従属変数が2値変数の分類モデルを確率化する「ロジスティック回帰」を解説する。

ロジスティック回帰

 ロジスティック回帰とは、過去のデータを基にしてある事象が起こる確率を予想し、その確率が閾値を超えたかどうかで、クラスを判定するアルゴリズムだ。線形回帰に似ているのだが、線形回帰では従属変数(y=ax+bの「y」のこと)が量を表しているのに対し、ロジスティック回帰では、従属変数が2値変数(例えば、「賛成か反対か」「ありかなしか」)であるという違いがある。従属変数が2値変数、つまり0か1のどちらかになるような場合、線形回帰で回帰式を求めようとしても、うまく当てはまらない。こうした場合、線形の回帰式の代わりに、ロジスティック関数を当てはめる。このロジスティック関数のパラメーターを求めるアルゴリズムが、ロジスティック回帰だ。

第4回
ベイズ線形回帰とは?|機械学習アルゴリズム10種(2)
第6回
決定木とは?|機械学習アルゴリズム10種(4)