当前位置: 首页 > news >正文

神经网络|(三)线性回归基础知识

【1】引言

前序学习进程中,已经对简单神经元的工作模式有所了解,这种二元分类的工作机制,进一步使用sigmoid()函数进行了平滑表达。相关学习链接为:

神经网络|(一)加权平均法,感知机和神经元-CSDN博客

神经网络|(二)sigmoid神经元函数-CSDN博客 

实际上,上述表达模型的一个基本原则是:元素和对应的权重,线性相乘后再和阈值开关作对比,元素的综合影响在本质上是一个线性函数,类似于y=wx+b,这里把w理解为权重组成的矩阵,x理解为影响元素组成的矩阵,b就是阈值开关。

然而实际应用中,大多数时候我们获得的数据是y和x,权重w    和阈值开关-b躲在数据堆里。机器学习的目标之一就是通过大量的数据把k和b反推出来。

在数学上我们知道,如果是线性函数,知道自变量和因变量,反推斜率和解决过程叫做线性回归,线性回归常用的方法是最小二乘法。

【2】最小二乘法基础知识

最小二乘法的英文翻译是Least Squares Method,也就是最小平方法。

实际解释起来,需要用线性代数中的矩阵来辅助。

定义影响元素组成的矩阵x=xij(i=1,2...m,j=1,2...n),对应的元素权重组成的矩阵w=wij(i=1,2...n,j=1,2...m),写出来全是类似下方的模样:

图1 自变量 x

进行最小二乘法计算时,采用的计算公式为:f(x)=min\sum (y_{i}-x_{ij}w_{ij}-b_{i})^{2}

非常明确,yi是实际的已知量,xijwij+bi是将自变量xij和对应权重wij相乘再叠加阈值开关-bi后的“计算结果”,这个计算结果越接近已知量yi,表明权重wij和阈值开关-bi给的越准。

所以在本质上,最小二乘法是查看函数拟合效果的基石。

【3】总结

了解了线性回归使用最小二乘法的基础知识。

http://www.lryc.cn/news/525881.html

相关文章:

  • deepseek R1 高效使用学习
  • STM32_SD卡的SDIO通信_基础读写
  • 【Docker】私有Docker仓库的搭建
  • linux 管道符、重定向与环境变量
  • Ansible fetch模块详解:轻松从远程主机抓取文件
  • wireshark工具简介
  • 51单片机——按键控制LED流水灯
  • 【opencv】第9章 直方图与匹配
  • HTML5 Web Worker 的使用与实践
  • MVCC底层原理实现
  • 基于ESP32-IDF驱动GPIO输出控制LED
  • 【优选算法】9----长度最小的子数组
  • LabVIEW太阳能照明监控系统
  • MongoDB中单对象大小超16M的存储方案
  • 三维激光扫描-用智能检测系统提升效率
  • css遇到的一些问题
  • 【langgraph】ubuntu安装:langgraph:未找到命令
  • mysql 学习2 MYSQL数据模型,mysql内部可以创建多个数据库,一个数据库中有多个表;表是真正放数据的地方,关系型数据库 。
  • 小识JVM堆内存管理的优化机制TLAB
  • ToDesk云电脑、顺网云、网易云、易腾云、极云普惠云横测对比:探寻电竞最佳拍档
  • 学习ASP.NET Core的身份认证(基于JwtBearer的身份认证10)
  • vscode环境中用仓颉语言开发时调出覆盖率的方法
  • OLED--软件I2C驱动__标准库和HAL库
  • 【设计模式-行为型】观察者模式
  • 从理论到实践:Django 业务日志配置与优化指南
  • Linux下php8安装phpredis扩展的方法
  • Flink运行时架构
  • JupyterLab 安装以及部分相关配置
  • PC端实现PDF预览(支持后端返回文件流 || 返回文件URL)
  • 大模型 / 智能体在智能运维领域的应用总结与发展趋势概述