本实验要求利用逻辑回归(Logistic Regression),对生成的数据进行二分类。首先我们先回顾一下逻辑回归的基本原理:
<>逻辑回归
逻辑回归,又意译为对率回归(周志华《机器学习》),虽然它的名字中带“回归”,但它是一个分类模型。它的基本思想是直接估计条件概率 P ( Y ∣ X )
P(Y|X)P(Y∣X)的表达式,即给定样本 X = x X=x X=x(这里 x x x是一个 d d d维列向量),其属于类别 Y Y Y
的概率(这里研究的是二分类问题, Y Y Y的取值只有 0 , 1 0,1 0,1, 1 1 1表示正例, 0 0 0
表示反例)。利用贝叶斯公式,可以得到给定样本,其为正例的概率
P ( Y = 1 ∣ X = x ) = P ( X = x ∣ Y = 1 ) P ( Y = 1 ) P ( X = x ) = P ( X = x
∣ Y = 1 ) P ( Y = 1 ) P ( X = x ∣ Y = 1 ) P ( Y = 1 ) + P ( X = x ∣ Y = 0 ) P (
Y = 0 ) = 1 1 + P ( X = x ∣ Y = 0 ) P ( Y = 0 ) P ( X = x ∣ Y = 1 ) P ( Y = 1 )
\begin{aligned}P(Y=1|X=x)&= \frac {P(X=x|Y=1)P(Y=1)}{P(X=x)}\\
&=\frac{P(X=x|Y=1)P(Y=1)}{P(X=x|Y=1)P(Y=1)+P(X=x|Y=0)P(Y=0)}\\
&=\frac{1}{1+\frac{P(X=x|Y=0)P(Y=0)}{P(X=x|Y=1)P(Y=1)}}\\ \end{aligned}P(Y=1∣X=x
)=P(X=x)P(X=x∣Y=1)P(Y=1)=P(X=x∣Y=1)P(Y=1)+P(X=x∣Y=0)P(Y=0)P(X=x∣Y=1)P(Y=1)=1+
P(X=x∣Y=1)P(Y=1)P(X=x∣Y=0)P(Y=0)1
在这个式子中有两类式子需要我们已知:类别先验 P ( Y = y ) P(Y=y) P(Y=y)和条件分布 P ( X ∣ Y ) P(X|Y) P(X∣Y
).这也是逻辑回归做出的最基本假设:
(1)类别先验服从伯努利分布 B ( 1 , p ) , B(1,p), B(1,p),即一个样本有 p p p的概率为正例。
(2)类内样本服从正态分布 N ( μ , Σ ) . N(\mu,\Sigma). N(μ,Σ).具体地说,正例样本服从 N ( μ 1 , Σ 1 )
N(\mu_1,\Sigma_1)N(μ1,Σ1);反例样本服从 N ( μ 0 , Σ 0 ) N(\mu_0,\Sigma_0) N(μ0,Σ0)
。特别地,我们要求两类样本的协方差矩阵相同,即 Σ 1 = Σ 0 = Σ . \Sigma_1=\Sigma_0=\Sigma. Σ1=Σ0=Σ.
之后我们就都用 Σ \Sigma Σ这一个符号代表协方差矩阵。
(注: n n n维正态分布 N ( μ , Σ ) N(\mu,\Sigma) N(μ,Σ)的概率密度 p ( x ) = 1 ( 2 π ) n / 2
∣ Σ ∣ 1 / 2 exp { − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) }
p(x)=\frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}}\exp\{-\frac12(x-\mu)^T\Sigma^{-1}(x-\mu)\}
p(x)=(2π)n/2∣Σ∣1/21exp{−21(x−μ)TΣ−1(x−μ)})
顺着上面两条假设,我们可以继续推导。我们在这里用正态分布的概率密度来代替概率(这个推导在概率论中不是那么严谨,但概率密度的大小可以一定程度上反映样本分布在该点的概率大小。)
P ( Y = 1 ∣ X = x ) = 1 1 + P ( X = x ∣ Y = 0 ) P ( Y = 0 ) P ( X = x ∣ Y = 1
) P ( Y = 1 ) = 1 1 + exp { − 1 2 ( x − μ 0 ) T Σ − 1 ( x − μ 0 ) } exp { −
1 2 ( x − μ 1 ) T Σ − 1 ( x − μ 1 ) } ⋅ p 1 − p = 1 1 + exp { ( μ 0 − μ 1 ) T
Σ − 1 x + 1 2 ( μ 1 T Σ − 1 μ 1 − μ 0 T Σ − 1 μ 0 ) } ⋅ p 1 − p
\begin{aligned}P(Y=1|X=x)&=\frac{1}{1+\frac{P(X=x|Y=0)P(Y=0)}{P(X=x|Y=1)P(Y=1)}}\\
&=\frac{1}{1+\frac{\exp\{-\frac12(x-\mu_0)^T\Sigma^{-1}(x-\mu_0)\}}{\exp\{-\frac12(x-\mu_1)^T\Sigma^{-1}(x-\mu_1)\}}\cdot\frac{p}{1-p}}\\
&=\frac{1}{1+\exp\{(\mu_0-\mu_1)^T\Sigma^{-1}x+\frac12(\mu_1^T\Sigma^{-1}\mu_1-\mu_0^{T}\Sigma^{-1}\mu_0)\}\cdot\frac{p}{1-p}}
\end{aligned}P(Y=1∣X=x)=1+P(X=x∣Y=1)P(Y=1)P(X=x∣Y=0)P(Y=0)1=1+exp{−21(x−μ1)
TΣ−1(x−μ1)}exp{−21(x−μ0)TΣ−1(x−μ0)}⋅1−pp1=1+exp{(μ0−μ1)TΣ−1x+21(μ1TΣ−
1μ1−μ0TΣ−1μ0)}⋅1−pp1
上式2~3行就是把两个指数相除,把项展开整理了一下。我们把结果中的 p 1 − p \frac{p}{1-p} 1−pp也改写成指数形式:
p 1 − p = exp ln ( p 1 − p ) \frac{p}{1-p}=\exp \ln(\frac{p}{1-p}) 1−pp=
expln(1−pp)
再整理一下 P ( Y = 1 ∣ X = x ) , P(Y=1|X=x), P(Y=1∣X=x),得到
P ( Y = 1 ∣ X = x ) = 1 1 + exp { ( μ 0 − μ 1 ) T Σ − 1 x + 1 2 ( μ 1 T Σ −
1 μ 1 − μ 0 T Σ − 1 μ 0 ) + ln p 1 − p }
P(Y=1|X=x)=\frac{1}{1+\exp\{(\mu_0-\mu_1)^T\Sigma^{-1}x+\frac12(\mu_1^T\Sigma^{-1}\mu_1-\mu_0^{T}\Sigma^{-1}\mu_0)+\ln\frac{p}{1-p}\}}
P(Y=1∣X=x)=1+exp{(μ0−μ1)TΣ−1x+21(μ1TΣ−1μ1−μ0TΣ−1μ0)+ln1−pp}1
这时我们设
w = ( Σ − 1 ) T ( μ 0 − μ 1 ) = ( w 1 , w 2 , . . . , w d ) T ∈ R d × 1 , b =
1 2 ( μ 1 T Σ − 1 μ 1 − μ 0 T Σ − 1 μ 0 ) + ln p 1 − p ∈ R ,
w=(\Sigma^{-1})^T(\mu_0-\mu_1)=(w_1,w_2,...,w_d)^T \in \mathbb{R}^{d\times
1},\\
b=\frac12(\mu_1^T\Sigma^{-1}\mu_1-\mu_0^{T}\Sigma^{-1}\mu_0)+\ln\frac{p}{1-p}\in
\mathbb R,w=(Σ−1)T(μ0−μ1)=(w1,w2,...,wd)T∈Rd×1,b=21(μ1TΣ−1μ1−μ0TΣ−1μ0)
+ln1−pp∈R,
就得到了逻辑回归最经典的形式
P ( Y = 1 ∣ X = x ) = 1 1 + exp ( w T x + b ) .
P(Y=1|X=x)=\frac{1}{1+\exp(w^Tx+b)}.P(Y=1∣X=x)=1+exp(wTx+b)1.
很多地方会把正例的条件概率写为
P ( Y = 1 ∣ X = x ) = exp ( w T x + b ) 1 + exp ( w T x + b ) = 1 1 + exp
( − ( w T x + b ) ) ,
P(Y=1|X=x)=\frac{\exp(w^Tx+b)}{1+\exp(w^Tx+b)}=\frac{1}{1+\exp(-(w^Tx+b))},P(Y=
1∣X=x)=1+exp(wTx+b)exp(wTx+b)=1+exp(−(wTx+b))1,
这两种写法实质上表示是等价的,只要把第一个式子上下同乘 exp ( − w T x − b ) \exp(-w^Tx-b) exp(−wTx−b),再用
w ′ = − w , b ′ = − b w'=-w,b'=-bw′=−w,b′=−b代换即可。为了后面推导的形式简便,我们采用第二种。(即分子上也带
exp \expexp的写法,这也是为什么Sigmoid函数 f ( z ) = 1 1 + e − z f(z)=\frac{1}{1+e^{-z}} f
(z)=1+e−z1被用在这里)
整理一下我们得到的结论:假设正反两类样本( d d d维)满足:
(1)类别先验服从伯努利分布 B ( 1 , p ) , B(1,p), B(1,p),即一个样本有 p p p的概率为正例;
(2)正例样本服从 N ( μ 1 , Σ ) N(\mu_1,\Sigma) N(μ1,Σ);反例样本服从 N ( μ 0 , Σ )
N(\mu_0,\Sigma)N(μ0,Σ)。
那么我们可以得到,给定样本 X = x = ( x 1 , x 2 , . . . , x d ) T , X=x=(x_1,x_2,...,x_d)^T,
X=x=(x1,x2,...,xd)T,其属于正反两类的概率形如
P ( Y = 1 ∣ X = x ) = exp ( w T x + b ) 1 + exp ( w T x + b ) ,
P(Y=1|X=x)=\frac{\exp(w^Tx+b)}{1+\exp(w^Tx+b)},P(Y=1∣X=x)=1+exp(wTx+b)exp(wTx+b)
,
P ( Y = 0 ∣ X = x ) = 1 1 + exp ( w T x + b ) .
P(Y=0|X=x)=\frac{1}{1+\exp(w^Tx+b)}.P(Y=0∣X=x)=1+exp(wTx+b)1.
容易得到, P ( Y = 1 ∣ X = x ) > P ( Y = 0 ∣ X = x ) P(Y=1|X=x)>P(Y=0|X=x) P(Y=1∣X=
x)>P(Y=0∣X=x)的条件为 exp ( w T x + b ) > 1 \exp(w^Tx+b)>1 exp(wTx+b)>1即 w T x +
b > 0. w^Tx+b>0.wTx+b>0.因此我们的分界面是线性的,即 w T x + b = 0. w^Tx+b=0. wTx+b=0.
因此,逻辑回归的任务就是在数据集 X , Y X,Y X,Y( Y Y Y为每个样本对应的类别)上学习参数 w w w和 b b b
,使其得到的概率与数据集最吻合。为了进行学习,我们采用最大似然估计:
w , b = arg max w , b ∏ i = 1 N P ( X = x i , Y = y i ) = arg max w , b ∏
i = 1 N P ( Y = y i ∣ X = x i ) P ( X = x i ) \begin{aligned}
w,b&=\argmax_{w,b}\prod\limits_{i=1}^{N}P(X=x_i,Y=y_i)\\
&=\argmax_{w,b}\prod\limits_{i=1}^{N}P(Y=y_i|X=x_i)P(X=x_i) \end{aligned}w,b=w,
bargmaxi=1∏NP(X=xi,Y=yi)=w,bargmaxi=1∏NP(Y=yi∣X=xi)P(X=xi)
由于 P ( X = x i ) P(X=x_i) P(X=xi)与参数形式无关,可以去掉,即
w , b = arg max w , b ∏ i = 1 N P ( Y = y i ∣ X = x i )
w,b=\argmax_{w,b}\prod\limits_{i=1}^{N}P(Y=y_i|X=x_i)w,b=w,bargmaxi=1∏NP(Y=yi
∣X=xi)
为了推导形式简洁,我们把 P ( Y = y i ∣ X = x i ) P(Y=y_i|X=x_i) P(Y=yi∣X=xi)记为
P ( Y = y i ∣ X = x i ) = y i P ( Y = 1 ∣ X = x i ) + ( 1 − y i ) P ( Y = 0 ∣
X = x i ) = y i exp ( w T x + b ) + 1 − y i 1 + exp ( w T x + b )
\begin{aligned} P(Y=y_i|X=x_i)&=y_iP(Y=1|X=x_i)+(1-y_i)P(Y=0|X=x_i)\\
&=\frac{y_i\exp(w^Tx+b)+1-y_i}{1+\exp(w^Tx+b)} \end{aligned}P(Y=yi∣X=xi)=yiP
(Y=1∣X=xi)+(1−yi)P(Y=0∣X=xi)=1+exp(wTx+b)yiexp(wTx+b)+1−yi
很容易验证,这个式子与我们得到的结论等价( y i = 1 y_i=1 yi=1时,后一项不起作用; y i = 0 y_i=0 yi=0
时,前一项不起作用)。继续推导,得
w , b = arg max w , b ∏ i = 1 N y i exp ( w T x + b ) + 1 − y i 1 + exp
( w T x + b ) = arg max w , b ∑ i = 1 N ln y i exp ( w T x + b ) + 1 − y
i 1 + exp ( w T x + b ) ( 取对数不改变最值点 ) = arg max w , b ∑ i = 1 N [ ln ( y
i exp ( w T x + b ) + 1 − y i ) − ln ( 1 + exp ( w T x + b ) ) ] =
arg max w , b ∑ i = 1 N [ y i ( w T x + b ) − ln ( 1 + exp ( w T x + b )
) ] ( 观察第一项与上一项等价,分 y i = 0 , 1 讨论 ) = arg min w , b ∑ i = 1 N [ − y i ( w T
x + b ) + l n ( 1 + exp ( w T x + b ) ) ] ( 取相反数 , 变为 arg min ) .
\begin{aligned}w,b&=\argmax_{w,b}\prod\limits_{i=1}^{N}\frac{y_i\exp(w^Tx+b)+1-y_i}{1+\exp(w^Tx+b)}\\
&=\argmax_{w,b}\sum\limits_{i=1}^N\ln\frac{y_i\exp(w^Tx+b)+1-y_i}{1+\exp(w^Tx+b)}(取对数不改变最值点)\\
&=\argmax_{w,b}\sum\limits_{i=1}^N[\ln(y_i\exp(w^Tx+b)+1-y_i)-\ln(1+\exp(w^Tx+b))]\\
&=\argmax_{w,b}\sum\limits_{i=1}^N[y_i(w^Tx+b)-\ln(1+\exp(w^Tx+b))](观察第一项与上一项等价,分y_i=0,1讨论)\\
&=\argmin_{w,b}\sum\limits_{i=1}^N[-y_i(w^Tx+b)+ln(1+\exp(w^Tx+b))](取相反数,变为\argmin).
\end{aligned}w,b=w,bargmaxi=1∏N1+exp(wTx+b)yiexp(wTx+b)+1−yi=w,bargmaxi=1
∑Nln1+exp(wTx+b)yiexp(wTx+b)+1−yi(取对数不改变最值点)=w,bargmaxi=1∑N[ln(yiexp(wTx+
b)+1−yi)−ln(1+exp(wTx+b))]=w,bargmaxi=1∑N[yi(wTx+b)−ln(1+exp(wTx+b))](
观察第一项与上一项等价,分yi=0,1讨论)=w,bargmini=1∑N[−yi(wTx+b)+ln(1+exp(wTx+b))](取相反数,变为
argmin).
因此,学习 w , b w,b w,b的任务就变为了最小化关于 w , b w,b w,b的损失函数(其实就是负对数似然)
l = ∑ i = 1 N [ − y i ( w T x + b ) + l n ( 1 + exp ( w T x + b ) ) ]
l=\sum\limits_{i=1}^N[-y_i(w^Tx+b)+ln(1+\exp(w^Tx+b))]l=i=1∑N[−yi(wTx+b)+ln(1+
exp(wTx+b))]
为了让整体形式更简洁,我们重新设 x = ( 1 , x 1 , x 2 , . . . , x d ) T , β = ( b , w 1 , w 2
, . . . , w d ) T , x=(1,x_1,x_2,...,x_d)^T,\beta=(b,w_1,w_2,...,w_d)^T,x=(1,x1
,x2,...,xd)T,β=(b,w1,w2,...,wd)T,损失函数变为
l = ∑ i = 1 N [ − y i β T x + l n ( 1 + e β T x ) ] .
l=\sum\limits_{i=1}^N[-y_i\beta^Tx+ln(1+e^{\beta^Tx})].l=i=1∑N[−yiβTx+ln(1+eβT
x)].
该优化问题可以用梯度下降法/牛顿迭代法求解,只需求 l l l关于 β \beta β的偏导数,每次迭代减去该梯度 × \times ×学习率:
∂ l ∂ β = − ∑ i = 1 N x i ( y i − exp ( β T x ) 1 + exp ( β T x ) )
\frac{\partial l}{\partial
\beta}=-\sum\limits_{i=1}^Nx_i(y_i-\frac{\exp(\beta^Tx)}{1+\exp(\beta^Tx)})∂β∂l
=−i=1∑Nxi(yi−1+exp(βTx)exp(βTx))
<>代码部分
下面我们来实现该过程。本次实验仍然采用python numpy库:
import numpy as np import matplotlib.pyplot as plt
<>获取数据集
这次我们需要的数据集应当服从正态分布(见前面的讨论)。我们传入两类样本的均值和协方差,同时可以设置前面提到的类别先验 p p p(在代码中为pi
),我这里默认设为0.3。此外,为了探究两类样本不满足协方差相同时的结果,我们也留一个可选参数cov2作为反例样本的协方差。
''' 获取二分类问题数据集,两类数据均服从正态分布 - N 数据集大小,默认为100 - pi 正例的比例,默认为0.3 - mean
两类样本的均值,为2 * d 维矩阵,d为正态分布维数 - 例: [[1, 1], [3, 3]]表示正例样本均值为(1, 1), 反例样本为(3, 3) -
cov 协方差矩阵,为d * d维矩阵 - 例: [[1, 0], [0, 1]] - cov2
用于测试不满足Logistic回归假设(不是朴素贝叶斯假设)时结果。若不传入该参数,两类样本协方差相同;否则cov2代表第二类样本的协方差。 ''' def
get_dataset(mean, cov, N = 100, pi = 0.3, cov2 = None): mean = np.array(mean,
dtype= 'float') cov = np.array(cov, dtype = 'float') assert mean.shape[0] == 2
and mean.shape[1] == cov.shape[0] and cov.shape[0] == cov.shape[1], '参数不合法!'
positive= int(N *pi) negative = N - positive pdata = np.random.
multivariate_normal(mean[0], cov, positive) ndata = np.random.
multivariate_normal(mean[1], cov if cov2 is None else cov2, negative) return np.
concatenate([pdata, ndata]), np.concatenate([np.ones(positive), np.zeros(
negative)])
代码中np.concatenate用于把正例和反例拼接起来。最后返回的数据应该类似于(data, target),其中data形如
X = ( x 11 ⋯ x 1 d x 21 ⋯ x 2 d ⋮ ⋮ x N 1 ⋯ x N d )
, X=\begin{pmatrix}x_{11} \ \cdots \ x_{1d}\\ x_{21}\ \cdots \ x_{2d}\\ \vdots\
\ \ \ \ \ \ \ \ \ \ \ \ \vdots\\ x_{N1}\ \cdots \ x_{Nd} \end{pmatrix},X=⎝ ⎛x11
⋯ x1dx21 ⋯ x2d⋮ ⋮xN1 ⋯ xNd⎠ ⎞,
前 N p Np Np行的样本(如 N = 100 , p = 0.3 N=100,p=0.3 N=100,p=0.3,那么就是前 30 % = 30
30\%=3030%=30行)是正例,其余样本为反例。target形如
Y = ( y 1 y 2 ⋮ y N ) . Y=\begin{pmatrix}y_1\\y_2\\\vdots\\y_N\end{pmatrix}. Y
=⎝ ⎛y1y2⋮yN⎠ ⎞.
其中前 N p Np Np行为 1 1 1,剩余行为 0 0 0.
<>梯度下降法
梯度下降法与上一篇博客基本类似。
''' 梯度下降法优化损失函数。 - data 数据集 - target 数据的标签,与数据集一一对应 - max_iteration
最大迭代次数,默认为10000 - lr 学习率,默认为0.05 ''' def GD(data, target, max_iteration = 10000,
lr= 0.05): # 判断收敛的阈值 epsilon = 1e-8 # 意义如上文所述 N, d = data.shape #
意义如上文所述,随机初始化后开始梯度下降 beta = np.random.randn(d + 1) # 因为我们在前面加了一列1 X = np.
concatenate([np.ones((N, 1)), data], axis = 1) for i in range(max_iteration):
term1= -np.sum(X * target.reshape(N, 1), axis = 0) term2 = np.sum((1 / (np.e **
-np.dot(beta, X.T) + 1)).reshape(N, 1) * X, axis = 0) grad = term1 + term2 if np
.linalg.norm(grad) < epsilon: break beta -= lr * grad return beta
代码中的梯度(grad = term1 + term2)看上去非常难以理解,一般我们不会故意这么写,但numpy库中内置的函数往往比for
循环快很多,所以我们尽可能用内置函数进行矩阵运算。稍微解释一下:我们之前算出来的梯度为
∂ l ∂ β = − ∑ i = 1 N x i ( y i − exp ( β T x i ) 1 + exp ( β T x i ) ) .
\frac{\partial l}{\partial
\beta}=-\sum\limits_{i=1}^Nx_i(y_i-\frac{\exp(\beta^Tx_i)}{1+\exp(\beta^Tx_i)}).
∂β∂l=−i=1∑Nxi(yi−1+exp(βTxi)exp(βTxi)).
我们把式子拆成两项:第一项是 − ∑ i = 1 N x i y i , -\sum\limits_{i=1}^Nx_iy_i, −i=1∑Nxiyi
,其中 x i x_i xi是向量(注意我们补了一列 1 1 1), y i ∈ { 0 , 1 } y_i\in\{0,1\} yi∈{0,1};而数据集
X = ( x 1 x 2 ⋮ x N ) , Y = ( y 1 y 2 ⋮ y N ) .
X=\begin{pmatrix}x_1\\x_2\\\vdots\\x_N\end{pmatrix},Y=\begin{pmatrix}y_1\\y_2\\\vdots\\y_N\end{pmatrix}.
X=⎝ ⎛x1x2⋮xN⎠ ⎞,Y=⎝ ⎛y1y2⋮yN⎠ ⎞.
利用numpy的*运算将对应行相乘,但在这之前我们需要把 Y Y Y变成一个二维数组(利用reshape(N,1)),最后需要对相乘结果按行相加,这在
numpy中用np.sum(A, axis=0)表示,这就是代码中term1的来历。
我们再看第二项 ∑ i = 1 N x i exp ( β T x i ) 1 + exp ( β T x i )
\sum\limits_{i=1}^Nx_i\frac{\exp(\beta^Tx_i)}{1+\exp(\beta^Tx_i)}i=1∑Nxi1+exp(
βTxi)exp(βTxi)。
(1)首先我们计算 exp ( β T x ) \exp(\beta^Tx) exp(βTx),可以直接用np.dot表示为np.dot(beta,
X.T);
(2)然后构造 exp ( β T x i ) 1 + exp ( β T x i )
\frac{\exp(\beta^Tx_i)}{1+\exp(\beta^Tx_i)}1+exp(βTxi)exp(βTxi)
这一项,为了防止重复运算我们把它变形成 1 1 + exp ( − β T x i ) \frac{1}{1+\exp(-\beta^Tx_i)} 1+ex
p(−βTxi)1,代码中对应1 / (np.e ** -np.dot(beta, X.T) + 1)。注意这个结果是一个 N N N维向量,每一维对应一个
x i x_ixi的结果。
(3)之后我们只需要故技重施,把第 i i i个分量与 x i x_i xi对应相乘并相加即可,对应到代码中即np.sum((1 / (np.e **
-np.dot(beta, X.T) + 1)).reshape(N, 1) * X, axis = 0).
接下来我们写一个主函数验证结果。为了便于可视化,我们采用 2 2 2维变量,当然为了升高维度只需要调整get_dataset
的协方差矩阵维数和均值维数即可(注意形状要对上:均值维数为 2 × d , 2\times d, 2×d,协方差矩阵维数为 d × d d\times d d×
d)。主函数如下:
if __name__ == '__main__': mean = [[1, 1], [4, 4]] cov = np.diag([1, 1]) data,
target= get_dataset(mean, cov) beta = GD(data, target, max_iteration = 100000)
for (x, y), label in zip(data, target): plt.scatter(x, y, c = 'red' if label
else 'black') x = np.linspace(-1, 4) ''' 由于beta(d=2)形如(beta[0], beta[1],
beta[2]), 在二维空间中表示分界面为w^T*x+b=0,当x=(1, x, y)时(这里x, y指横纵坐标)
分界面为beta[0]+beta[1]x+beta[2]y=0,或写成标准一次函数形式 y=(-beta[1]x -beta[0]) / beta[2].
''' y = (-beta[1] * x - beta[0]) / beta[2] plt.plot(x, y) plt.show()
其中一次结果如下:
<>过拟合&正则项
在训练模型过程中,为了防止模型复杂度过高,就像在最小二乘法中一样,我们也可以加入正则项 λ ∣ ∣ w ∣ ∣ 2 = λ w T w
\lambda||w||^2=\lambda w^Twλ∣∣w∣∣2=λwTw来约束 w w w的模长。修改后的梯度下降法只需要加入正则项的梯度即可:
∂ l ∂ β = − ∑ i = 1 N x i ( y i − exp ( β T x i ) 1 + exp ( β T x i ) ) +
2 λ w . \frac{\partial l}{\partial
\beta}=-\sum\limits_{i=1}^Nx_i(y_i-\frac{\exp(\beta^Tx_i)}{1+\exp(\beta^Tx_i)})+2\lambda
w.∂β∂l=−i=1∑Nxi(yi−1+exp(βTxi)exp(βTxi))+2λw.
其中的系数 2 2 2可以忽略(可以通过调节 λ \lambda λ得到同样的效果)。修改后的梯度下降法:
''' 梯度下降法优化损失函数。 - data 数据集 - target 数据的标签,与数据集一一对应 - max_iteration
最大迭代次数,默认为1000 - lr 学习率,默认为0.05 - l 正则项系数,默认不加正则项 ''' def GD(data, target,
max_iteration= 10000, lr = 0.05, l = 0): epsilon = 1e-8 N, d = data.shape beta =
np.random.randn(d + 1) X = np.concatenate([np.ones((N, 1)), data], axis = 1)
for i in range(max_iteration): term1 = -np.sum(X * target.reshape(N, 1), axis =
0) term2 = np.sum((1 / (np.e ** -np.dot(beta, X.T) + 1)).reshape(N, 1) * X, axis
= 0) regularize = l * beta grad = term1 + term2 + regularize if np.linalg.norm(
grad) < epsilon: break beta -= lr * grad return beta
我们再写两个辅助函数,来检验一下加入正则项后的效果:
# 根据模型beta预测x所属的类, 返回1(正例), 或0(反例)。 def predict(beta, x): return 1 if np.dot(
beta[1:], x) + beta[0] > 0 else 0 # 评估整个数据集上的效果 def evaluate(beta, data, target)
: cnt = 0 for x, y in zip(data, target): if predict(beta, x) == int(y): cnt += 1
print(f'模型参数: {beta}') print(f'模型复杂度(模长): {np.linalg.norm(beta)}') print(
f'预测准确率:{cnt / len(target)}')
下面是几次的运行结果:
模型参数: [-0.78524378 -3.34318712 -1.86253962] # 未正则化 模型复杂度(模长):
3.906732871506824 预测准确率: 0.95 模型参数: [-0.52418376 -2.10771474 -1.37132344] # 正则化
模型复杂度(模长): 2.56861013046 预测准确率: 0.95
---------------------------------------------- 模型参数: [-0.73382186 -5.31193987
-5.03064085] # 未正则化 模型复杂度(模长): 7.352723791057766 预测准确率: 0.96 模型参数: [-0.5065628
-1.75035625 -2.09991419] # 正则化 模型复杂度(模长): 2.7802863999234253 预测准确率: 0.96
---------------------------------------------- 模型参数: [-0.44133903 -3.04645754
-2.45359287] # 未正则化 模型复杂度(模长): 3.936470713612132 预测准确率: 0.95 模型参数: [-0.39689499
-1.91437456 -1.63920354] # 正则化 模型复杂度(模长): 2.5513415720325567 预测准确率: 0.96
可以看到正则化显著地降低了模型复杂度(即参数模长)。我们也可以从另一个场景来理解过拟合,这个场景更类似于上次实验中的最小二乘法。我们通过之前的推导,得到了逻辑回归得到的分界面是一个线性分界面(
w T x + b = 0 w^Tx+b=0wTx+b=0)。那么它只能得到(对于原变量的)线性分界面吗?如果我们拿到了如下的数据:
这个数据是用 y = 2 x 2 y=2x^2 y=2x2为分界面的。我们能不能用逻辑回归对其进行分类呢?我们如果不做任何处理,得到的分界面形如
a x + b y + c = 0 ax+by+c=0 ax+by+c=0
这时显然是无法正确分类的。但如果我们主动对数据进行升维,把原来的单个数据 ( x , y ) (x,y) (x,y)变为 ( x , y , x 2 )
(x,y,x^2)(x,y,x2),再应用逻辑回归,得到的分界面当然就形如
a x + b y + c x 2 + d = 0 ax+by+cx^2+d=0 ax+by+cx2+d=0
这说明逻辑回归可以有与二次函数相同的表示能力。我们对这个数据集应用上述思想,得到结果
满足了我们的要求。这部分的额外代码如下:
def get_dataset_quad(N = 100, pi = 0.3): positive = int(N *pi) negative = N -
positive data, target = [], [] for i in range(positive): x = np.random.rand() *
2 - 1 data.append([x, 2 * x * x + np.random.rand() * 2]) target.append(1) for i
in range(negative): x = np.random.rand() * 2 - 1 data.append([x, 2 * x * x - np.
random.rand() * 2]) target.append(0) return np.array(data), np.array(target) if
__name__== '__main__': mean = [[-1, -1], [1, 1]] cov = np.diag([1, 1]) data,
target= get_dataset() data = np.concatenate([data, (data[:, 0] ** 2).reshape(
data.shape[0], 1)], axis = 1) beta = GD(data, target, lr = 0.01, max_iteration =
100000) for (x, y, x_2), label in zip(data, target): plt.scatter(x, y, c = 'red'
if label else 'black') x = np.linspace(-1, 1) y = (-beta[3] * x * x - beta[1] *
x- beta[0]) / beta[2] plt.plot(x, y) plt.show()
上面的例子使我们想到,如果我们拿到一组 d d d维数据就对它进行升维,比如把 ( x 1 , x 2 , . . . , x d )
(x_1,x_2,...,x_d)(x1,x2,...,xd)升维成 ( x 1 , x 2 , . . . , x d , x 1 2 , x 2 2
, . . . , x d 2 ) (x_1,x_2,...,x_d,x_1^2,x_2^2,...,x_d^2)(x1,x2,...,xd,x12,x
22,...,xd2)甚至更高次的函数,那逻辑回归的表示能力不就可以更强大吗?但此时就会遭遇过拟合问题,比如我们对上述的正态分布应用该思想,把 ( x ,
y ) (x,y)(x,y)升维成 ( x , y , x 2 ) (x,y,x^2) (x,y,x2),得到结果如下:
我们发现,原本的线性分类面被刻画成了二次函数,凭空增加了模型的复杂度,这是不合适的。因此,我们也可以通过加入正则项来“抑制”模型的表示能力,上图中橙色线就是正则项系数
λ = 2 \lambda=2λ=2时的情况,可以明显地看出它更接近一条直线。得到上图的代码如下:
if __name__ == '__main__': mean = [[-1, -1], [1, 1]] cov = np.diag([1, 1]) data
, target = get_dataset(mean, cov) data = np.concatenate([data, (data[:, 0] ** 2)
.reshape(data.shape[0], 1)], axis = 1) beta1 = GD(data, target, lr = 0.01,
max_iteration= 100000) beta2 = GD(data, target, lr = 0.01, max_iteration =
100000, l = 2) for (x, y, x_2), label in zip(data, target): plt.scatter(x, y, c
= 'red' if label else 'black') x = np.linspace(-3, 3) y1 = (-beta1[3] * x * x -
beta1[1] * x - beta1[0]) / beta1[2] y2 = (-beta2[3] * x * x - beta2[1] * x -
beta2[0]) / beta2[2] plt.plot(x, y1, label = 'GD') plt.plot(x, y2, label =
'GD(lambda: 2)') plt.legend() plt.show()
最后我们再来讨论一下不满足朴素贝叶斯基本假设的情况。朴素贝叶斯假设各变量相互独立,即 Σ \Sigma Σ
为对角阵的情况。然而我们之前的假设并没有假设变量相互独立,所以违反该假设不应该影响我们模型的分类效果( Σ \Sigma Σ
应当是对称、半正定的,这是多元正态分布的要求)。我们简单地测试一下:
if __name__ == '__main__': mean = [[-1, -1], [1, 1]] cov = [[1.3, 1], [1, 0.8]]
data, target = get_dataset(mean, cov) beta = GD(data, target, lr = 0.01,
max_iteration= 100000) for (x, y), label in zip(data, target): plt.scatter(x, y,
c= 'red' if label else 'black') x = np.linspace(-3, 3) y = (-beta[1] * x - beta
[0]) / beta[2] plt.plot(x, y) plt.show()
理论上,非对角的协方差矩阵让多个变量有了相关性,这种相关性体现在图像上就是对原来的图像进行了旋转,应当不影响分类问题的结果(我们只需要把分界面对应旋转即可)。