当前位置: 首页 > news >正文

第1节 线性回归模型

1. 模型概述

        对于收集到的数据(xi,yi)(x_i,y_i)(xi,yi),建立线性回归模型yi=θTxi+εi(1)y_i=\theta^{^T} x_i +\varepsilon_i (1)yi=θTxi+εi(1)
        需要估计的参数为θT\theta^{^T}θT,我们的目的是让估计的参数θT\theta^{^T}θTxix_ixi组合后,得到的估计值y^i\hat{y}_iy^i与实际值yiy_iyi越接近越好,也就是随机误差项εi\varepsilon_iεi越小越好。

2. 模型求解

        由于假设模型的误差项是服从独立同分布(独立:数据之间互相不影响,同分布:保证模型使用于某一类数据)的高斯分布(标准正态分布)1,即ϵ∼N(0,σ2)\epsilon \sim N(0, \sigma^2)ϵN(0,σ2),则其概率密度函数为
p(ϵi)=12πσexp(−εi22σ2)(2)p(\epsilon_i)=\frac{1}{\sqrt{2\pi}\sigma }exp(-\frac{\varepsilon_i^2}{2\sigma^2})(2)p(ϵi)=2πσ1exp(2σ2εi2)(2)

        对(1)式进行变形,则有εi=yi−θTxi\varepsilon_i=y_i-\theta^{^T} x_iεi=yiθTxi,将其带入(2)式,得
p(yi∣xi,θ)=12πσexp(−(yi−θTxi)22σ2)p(y_i|x_i,\theta)=\frac{1}{\sqrt{2\pi}\sigma }exp(-\frac{(y_i-\theta^{^T} x_i)^2}{2\sigma^2})p(yixi,θ)=2πσ1exp(2σ2(yiθTxi)2)

        因为我们的目的是让求解得出的参数θ\thetaθ和和xix_ixi组合后,得到的估计值y^i=θTxi\hat{y}_i=\theta^{^T} x_iy^i=θTxi是真实值yiy_iyi的概率越大越好,也就是让这个概率越大越好。
        由于以上只是单个的样本数据,假设我们有mmm个样本数据,样本之间互相独立,则所有的样本的概率等于单个样本的概率的乘积,我们将所有样本的概率记为似然函数L(θ)L(\theta)L(θ),则
L(θ)=∏i=0m12πσexp(−(yi−θTxi)22σ2)L(\theta)=\prod \limits_{i=0}^m\frac{1}{\sqrt{2\pi}\sigma }exp(-\frac{(y_i-\theta^{^T} x_i)^2}{2\sigma^2})L(θ)=i=0m2πσ1exp(2σ2(yiθTxi)2)

由于多个式子相乘难以求解,我们可利用对数将其转化为加法。两边同时取对数,得到对数似然函数lnL(θ)lnL(\theta)lnL(θ),
lnL(θ)=ln∏i=0m12πσexp(−(yi−θTxi)22σ2)lnL(\theta)=ln\prod \limits_{i=0}^m\frac{1}{\sqrt{2\pi}\sigma }exp(-\frac{(y_i-\theta^{^T} x_i)^2}{2\sigma^2})lnL(θ)=lni=0m2πσ1exp(2σ2(yiθTxi)2)

lnL(θ)=mln12πσ−1σ212∑i=1m(yi−θTxi)2lnL(\theta)=mln\frac{1}{\sqrt{2\pi}\sigma }-\frac{1}{\sigma^2}\frac{1}{2}\sum_{i=1}^m(y_i-\theta^{^T} x_i)^2lnL(θ)=mln2πσ1σ2121i=1m(yiθTxi)2

         要对上述式子求最大值,则相当于对12∑i=1m(yi−θTxi)2\frac{1}{2}\sum_{i=1}^m(y_i-\theta^{^T} x_i)^221i=1m(yiθTxi)2求最小值,我们将其记为J(θ)J(\theta)J(θ),并取名为目标函数,则目标函数为
J(θ)=12∑i=1m(yi−θTxi)2J(\theta)=\frac{1}{2}\sum_{i=1}^m(y_i-\theta^{^T} x_i)^2J(θ)=21i=1m(yiθTxi)2

        那么,求解这个目标函数所使用的方法就是最小二乘法,最小二乘法的代数法解法就是对θi\theta_iθi求偏导数,令偏导数为0,再解方程组,得到θi\theta_iθi的估计值。矩阵法比代数法要简洁,下面主要讲解下矩阵法解法。
        由于

J(θ)=12∑i=1m(yi−θTxi)2=12∑i=1m(θTxi−yi)2=12(Xθ−Y)T(Xθ−Y)J(\theta)=\frac{1}{2}\sum_{i=1}^m(y_i-\theta^{^T} x_i)^2=\frac{1}{2}\sum_{i=1}^m(\theta^{^T} x_i-y_i)^2=\frac{1}{2}(X\theta-Y)^{^T}(X\theta-Y)J(θ)=21i=1m(yiθTxi)2=21i=1m(θTxiyi)2=21Y)T(Y)
        我们需要对其求偏导,∂J(θ)∂θ=12∂(θTXTXθ−θTXTY−YTXθ+YTY)∂θ=12(2XTXθ−2XTY)\frac{\partial J(\theta)}{\partial \theta}=\frac{1}{2}\frac{\partial (\theta^{^T}X^{^T}X\theta-\theta^{^T}X^{^T}Y-Y^{^T}X\theta+Y^{^T}Y)}{\partial \theta}=\frac{1}{2}(2X^{^T}X\theta-2X^{^T}Y)θJ(θ)=21θ(θTXTθTXTYYT+YTY)=21(2XT2XTY),令其等于0,得θ^=(XTX)−1XTY\hat \theta=( X^{^T}X)^{-1}X^{^T}Yθ^=(XTX)1XTY

        这里,需要用到矩阵求导的公式2.


  1. 在了解正态分布之前,我们需要先了解一个概念——概率分布。概率分布是指:经过大量的重复试验,将随机事件的所有可能的出现结果的次数分布记录下来,并在坐标系中做出一条曲线,这条曲线就是数据的概率分布曲线,由概率分布曲线可以估算变量的概率。正态分布就是一种常见的概率分布,它的概率分布曲线是一个钟形曲线,生活中大量的变量都服从正态分布,例如:人群的身高、鞋码、学生成绩等。正态分布只依赖于数据的两个特征:均值和方差。标准正态分布的均值为0,方差为σ2\sigma^2σ2. ↩︎

  2. ∂XTA∂A=∂ATX∂X=A,∂XTAX∂X=AX+ATX\frac{\partial X^{^T} A }{\partial A}=\frac{\partial A^{^T} X }{\partial X}=A, \frac{\partial X^{^T} A X}{\partial X}=AX+ A^{^T} XAXTA=XATX=A,XXTAX=AX+ATX ↩︎

http://www.lryc.cn/news/43023.html

相关文章:

  • CodeGeeX 130亿参数大模型的调优笔记:比FasterTransformer更快的解决方案
  • Linux驱动之并发与竞争
  • 【密码学复习】第四讲分组密码(三)
  • JVM(内存划分,类加载,垃圾回收)
  • 工作中遇到的问题 -- 你见过哪些写的特别好的代码
  • 基于chatGPT设计卷积神经网络
  • java.sql.Date和java.util.Date的区别
  • 动态规划---线性dp和区间dp
  • 常见的2D与3D碰撞检测算法
  • STM32 10个工程篇:1.IAP远程升级(二)
  • Unity+ChatGpt的联动 AICommand
  • STM-32:按键控制LED灯 程序详解
  • 北邮22信通:(8)实验1 题目五:大整数加减法(搬运官方代码)
  • Fiddler抓取https史上最强教程
  • STM32开发基础知识入门
  • 学习操作系统的必备教科书《操作系统:原理与实现》| 文末赠书4本
  • 大数据的常用算法(分类、回归分析、聚类、关联规则、神经网络方法、web数据挖掘)
  • 【数据结构】详解二叉树与堆与堆排序的关系
  • 【Pandas】数据分析入门
  • 【c++】:list模拟实现“任意位置插入删除我最强ƪ(˘⌣˘)ʃ“
  • QT表格控件实例(Table Widget 、Table View)
  • 第二章Vue组件化编程
  • 面试官:vue2和vue3的区别有哪些
  • 【TopK问题】——用堆实现
  • 【Spring从成神到升仙系列 四】从源码分析 Spring 事务的来龙去脉
  • 使用Nginx反向代理OpenAI API
  • USB键盘实现——字符串描述符(四)
  • STM32的中断
  • Flink进阶篇-CDC 原理、实践和优化采集到Doris中
  • 看完这篇 教你玩转渗透测试靶机vulnhub——My File Server: 1