当前位置: 首页 > news >正文

逻辑回归

逻辑回归

在分类问题中,要预测的变量y为离散值(y=0~1),逻辑回归模型的输出变量范围始终在 0 和 1 之间。

训练集为
{(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))}\{(x^{(1)},y^{(1)}),(x^{(2)},y^{(2)}),...,(x^{(m)},y^{(m)})\} {(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))}
输入
x∈[x0x1⋮xn]其中x0=1,y∈{0,1}x \in \left[ \begin{matrix} x_0 \\ x_1 \\ \vdots \\ x_n \\ \end{matrix} \right] 其中x_0=1,y \in \{0,1\} xx0x1xn其中x0=1,y{0,1}
逻辑回归模型的假设是:
hθ(x)=g(θTX)h_\theta(x)=g(\theta^{\mathrm T}X) hθ(x)=g(θTX)
XXX为特征变量,g(.)g(.)g(.)为逻辑函数
g(z)=11+e−zg(z)=\frac{1}{1+e^{-z}} g(z)=1+ez1
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZEzwMmHR-1677396732146)(C:\Users\20491\AppData\Roaming\Typora\typora-user-images\image-20230223113840999.png)]

如果对于逻辑回归沿用线性回归的代价函数,此时的代价函数是非凸函数,不利于找局部最优值,

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kpT45RTi-1677396732147)(C:\Users\20491\AppData\Roaming\Typora\typora-user-images\image-20230223143832677.png)]

逻辑回归的代价函数为:
J(θ)=1m∑i=1mCost(hθ(x(i)),y(i))J(\theta)=\frac{1}{m}\sum^m_{i=1}{Cost(h_{\theta}(x^{(i)}),y^{(i)})} J(θ)=m1i=1mCost(hθ(x(i)),y(i))

Cost(hθ(x),y)={−log(hθ(x)),ify=1−log(1−hθ(x)),ify=0Cost(h_{\theta}(x),y)=\left\{ \begin{matrix} -log(h_{\theta}(x)) ,if\quad y=1\\ -log(1-h_{\theta}(x)) ,if\quad y=0 \end{matrix} \right. Cost(hθ(x),y)={log(hθ(x)),ify=1log(1hθ(x)),ify=0

Cost(hθ(x),y)=−y⋅log(hθ(x))−(1−y)⋅log(1−hθ(x))Cost(h_{\theta}(x),y)=-y\cdot log(h_{\theta}(x))-(1-y)\cdot log(1-h_{\theta}(x)) Cost(hθ(x),y)=ylog(hθ(x))(1y)log(1hθ(x))

当实际的 𝑦 = 1 且hθ(𝑥)ℎ_{\theta}(𝑥)hθ(x)也为 1 时,误差为 0,

当 𝑦 = 1 但hθ(𝑥)ℎ_{\theta}(𝑥)hθ(x)不为 1 时,误差随着hθ(𝑥)ℎ_{\theta}(𝑥)hθ(x)变小而变大;

当实际的 𝑦 = 0 且hθ(𝑥)ℎ_{\theta}(𝑥)hθ(x)也为 0 时,误差为 0,

当𝑦 = 0 但hθ(𝑥)ℎ_{\theta}(𝑥)hθ(x)不为 0 时误差随着 hθ(𝑥)ℎ_{\theta}(𝑥)hθ(x)的变大而变大。

利用梯度下降算法
θj:=θj−α∂∂θjJ(θ)\theta_{j}:=\theta_{j}-\alpha\frac{\partial }{\partial \theta_{j}}J(\theta) θj:=θjαθjJ(θ)
代价函数的导数为
∂∂θjJ(θ)=1m∑i=1m[hθ(x(i))−y(i)]xj(i)\frac{\partial }{\partial \theta_{j}}J(\theta)=\frac{1}{m}\sum_{i=1}^{m}{[h_{\theta}(x^{(i)})-y^{(i)}]}x_j^{(i)} θjJ(θ)=m1i=1m[hθ(x(i))y(i)]xj(i)
则最终结果为(可同时更新所有的θ\thetaθ
θj:=θj−α1m∑i=1m[hθ(x(i))−y(i)]xj(i)\theta_{j}:=\theta_{j}-\alpha\frac{1}{m}\sum_{i=1}^{m}{[h_{\theta}(x^{(i)})-y^{(i)}]}x_j^{(i)} θj:=θjαm1i=1m[hθ(x(i))y(i)]xj(i)
此时的梯度函数跟线性回归不太相同,因为hθ(x)h_\theta(x)hθ(x)不同。

http://www.lryc.cn/news/21476.html

相关文章:

  • CTFer成长之路之Python中的安全问题
  • SpringBoot知识快速复习
  • SpringBoot+React博客论坛系统 附带详细运行指导视频
  • C++ primer 之 extern
  • Linux 练习二 (VIM编辑器 + GCC编译器 + GDB调试)
  • python3 连接数据库 mysql PyMysql
  • 昇腾AI新技能,还能预防猪生病?
  • 模板方法模式(Template Method)
  • C C++ typedef的使用
  • Laravel框架03:DB类操作数据库
  • 数据结构期末复习总结(前章)
  • 设计环形队列
  • 面向对象之-接口鉴权
  • Python 多进程多线程线程池进程池协程
  • 【自然语言处理】基于句子嵌入的文本摘要算法实现
  • fiddler抓包
  • 【Linux】网络套接字编程
  • break与continue关键字
  • kafka使用入门案例与踩坑记录
  • 系统启动太慢,调优后我直呼Nice
  • java知识点
  • 文件的打开关闭和顺序读写
  • (十八)操作系统-进程互斥的软件实现方法
  • 2023年三月份图形化一级打卡试题
  • linux 防火墙管理-firewalld
  • 2023年最新大厂开发面试题(滴滴,华为,京东,腾讯,头条)
  • 2023年三月份图形化三级打卡试题
  • 蓝桥杯算法模板
  • python之并发编程
  • Vue.js自定义事件的使用(实现父子之间的通信)