当前位置: 首页 > news >正文

【机器学习:四、多输入变量的回归问题】

多输入变量的回归问题

1. 多元线性回归概述

1.1 单变量线性回归与多变量线性回归的概念区分

  • 单变量线性回归:用于预测一个因变量(输出变量)与单一自变量(输入变量)之间的线性关系。模型形式为:

y = θ 0 + θ 1 x y = \theta_0 + \theta_1x y=θ0+θ1x

  • 多变量线性回归:扩展到多个自变量,模型形式为:

y = θ 0 + θ 1 x 1 + θ 2 x 2 + ⋯ + θ n x n y = \theta_0 + \theta_1x_1 + \theta_2x_2 + \cdots + \theta_nx_n y=θ0+θ1x1+θ2x2++θnxn
或者以向量形式表示:

y = θ T x y = \mathbf{\theta}^T \mathbf{x} y=θTx

其中:

  • θ \mathbf{\theta} θ 是参数向量。
  • x \mathbf{x} x 是特征向量。

1.2 实际应用——房价预测

  • 问题描述:假设我们要预测房屋的价格,影响价格的因素可能包括:

    • 面积(平方米)。
    • 卧室数量。
    • 房屋年龄。
  • 多元回归模型的目标:根据上述多个特征建立线性回归模型,用于预测房价。

2. 向量化表示与优势

2.1 向量化表示

  • 线性回归模型的向量形式
    假设有 m m m 个样本,每个样本有 n n n 个特征,设计矩阵 X \mathbf{X} X 和参数向量 θ \mathbf{\theta} θ 定义如下:

X = [ 1 x 1 , 1 x 1 , 2 … x 1 , n 1 x 2 , 1 x 2 , 2 … x 2 , n ⋮ ⋮ ⋮ ⋱ ⋮ 1 x m , 1 x m , 2 … x m , n ] , θ = [ θ 0 θ 1 ⋮ θ n ] \mathbf{X} = \begin{bmatrix} 1 & x_{1,1} & x_{1,2} & \dots & x_{1,n} \\ 1 & x_{2,1} & x_{2,2} & \dots & x_{2,n} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 1 & x_{m,1} & x_{m,2} & \dots & x_{m,n} \end{bmatrix}, \mathbf{\theta} = \begin{bmatrix} \theta_0 \\ \theta_1 \\ \vdots \\ \theta_n \end{bmatrix} X= 111x1,1x2,1xm,1x1,2x2,2xm,2x1,nx2,nxm,n ,θ= θ0θ1θn

模型预测值:

y = X θ \mathbf{y} = \mathbf{X} \mathbf{\theta} y=Xθ

2.2 向量化的优势

  • 计算效率高:利用矩阵运算可以快速计算多个样本的预测值。
  • 代码简洁:减少循环操作,简化实现。

3. 多元线性回归的优化方法

3.1 梯度下降法

  • 目标:通过最小化损失函数找到最优参数 θ \mathbf{\theta} θ
  • 损失函数

J ( θ ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\mathbf{\theta}) = \frac{1}{2m} \sum_{i=1}^m \left( h_\mathbf{\theta}(\mathbf{x}^{(i)}) - y^{(i)} \right)^2 J(θ)=2m1i=1m(hθ(x(i))y(i))2

  • 梯度下降更新公式

θ : = θ − α ∂ J ( θ ) ∂ θ \mathbf{\theta} := \mathbf{\theta} - \alpha \frac{\partial J(\mathbf{\theta})}{\partial \mathbf{\theta}} θ:=θαθJ(θ)

更新过程向量化为:

θ : = θ − α 1 m X T ( X θ − y ) \mathbf{\theta} := \mathbf{\theta} - \alpha \frac{1}{m} \mathbf{X}^T (\mathbf{X} \mathbf{\theta} - \mathbf{y}) θ:=θαm1XT(Xθy)

  • 其中:

    • α \alpha α 是学习率。
    • m m m 是样本数量。

3.2 正规方程法

  • 目标:通过直接计算闭式解找到参数向量 θ \mathbf{\theta} θ
  • 公式

θ = ( X T X ) − 1 X T y \mathbf{\theta} = (\mathbf{X}^T \mathbf{X})^{-1} \mathbf{X}^T \mathbf{y} θ=(XTX)1XTy

  • 特点

    • 无需选择学习率。
    • 计算量较大,尤其是特征数较多时。

4. 总结与比较

方法优点缺点
梯度下降法易于处理大规模数据集;灵活性高需要选择学习率;可能收敛较慢
正规方程法无需调参,计算直接对高维特征敏感,计算复杂度较高

应用建议

  • 当特征数较少时,优先考虑正规方程法。
  • 当样本量大或特征维度高时,选择梯度下降法。
http://www.lryc.cn/news/518977.html

相关文章:

  • JVM实战—OOM的定位和解决
  • iOS 本地新项目上传git仓库,并使用sourceTree管理
  • mysql之基本select语句 运算符 排序分页
  • 如何在 Ubuntu 22.04 上安装 Nagios 服务器教程
  • 数据库事务:确保数据一致性的关键机制
  • 词作词汇积累:错付、大而无当、语焉不详、愈演愈烈
  • selenium学习笔记
  • asp.net core webapi 并发请求时 怎么保证实时获取的用户信息是此次请求的?
  • 实时数仓:基于数据湖的实时数仓与数据治理架构
  • STM32 拓展 RTC案例1:使用闹钟唤醒待机模式 (HAL库)
  • ESP32S3使用串口0作为LOG输出
  • Linux:深入了解fd文件描述符
  • springboot 集成 etcd
  • 03_Redis基本操作
  • pycharm-pyspark 环境安装
  • Unity + Firebase + GoogleSignIn 导入问题
  • web-app uniapp监测屏幕大小的变化对数组一行展示数据作相应处理
  • 2025年VGC大众汽车科技社招入职测评综合能力英语口语SHL历年真题汇总、考情分析
  • Linux中配置Java环境变量
  • 完全自定义Qt翻译功能,不使用Qt Linguist的.ts 和 .qm类型翻译
  • 551 灌溉
  • php函数性能优化中应注意哪些问题
  • 安科瑞 Acrel-1000DP 分布式光伏监控系统在工业厂房分布式光伏发电项目中的应用
  • 鼠标自动移动防止锁屏的办公神器 —— 定时执行专家
  • 各种特种无人机快速发展,无人机反制技术面临挑战
  • 深入学习RabbitMQ的Direct Exchange(直连交换机)
  • HTML实战课堂之启动动画弹窗
  • 将本地的 Git 仓库上传到 GitHub 上(github没有该仓库)
  • 【Linux】模拟Shell命令行解释器
  • G-Star Landscape 2.0 重磅发布,助力开源生态再升级