sklearn中的广义线性模型
模型的通用公式
y^(w,x)=w0+w1x1+⋯+wpxp
普通最小二乘法
w=wmin∥Xw−y∥22
LinearRegression
岭回归
w=wmin∥Xw−y∥22+α∥w∥22
α 是控制系数收缩量的复杂性参数: α 的值越大,收缩量越大,模型对共线性的鲁棒性也更强。
共线性:线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系而使模型估计失真
Ridge,RigdeCV:广义交叉验证(GCV),默认留一验证(LOO-CV)
Lasso
w=wmin2nsamples1∥Xw−y∥22+α∥w∥1
α 是常数,∥w∥1˙ 是参数向量的l1−norm˙范数
Lasso,lasso_path:通过搜索所有可能的路径上的值来计算系数
LassoCV,LassoLarsCV,LassoLarsIC
多任务Lasso
w=wmin2nsamples1∥XW−Y∥Fro2+α∥W∥21
∥A∥Fro=ij∑aij2
∥A∥21=i∑j∑aij2
MultiTaskLasso
弹性网络
w=wmin2nsamples1∥Xw−Y∥22+αρ∥w∥1+2α(1−ρ)∥w∥22
ElasticNetCV通过交叉验证来设置参数alpha
(α)和l1_rati0
(ρ)
多任务弹性网络
W=Wmin2nsamples1∥XW−Y∥Fro2+αρ∥W∥21+2α(1−ρ)∥w∥Fro2
MultiTaskElasticNet