這個是簡介,真的隻是簡介,先挖個大坑,有空慢慢填。
Logistic回歸,也被稱為邏輯回歸,Logistc分布是一種條件機率分布模型,給定參數 θ ,那麼一個 X 就會有一個Y,這個 Y 的機率意義是X條件下出現Y的機率,一般的我們将大于0.5的值規定為 1 ,小于0.5的值定為 0 ,這樣就相當于将θTX映射到 0,1 這樣的空間當中,我們就可以進行判别了。
如果使用之前的代價函數LM規則,我們得到的是一個非凸的函數,非凸函數存在多個局部最優解,難以進行GD得到最優解,是以我們使用 log 的代價函數。
P.S.使用正則化的方式給予某些參數一些“懲罰”,我們就可以得到相對簡單并且很好的拟合訓練集的參數。懲罰的程度就是 λ 的取值大小,太大欠拟合,太小過拟合。