当前位置: 首页 > news >正文

吃瓜教程笔记—Task04

在这里插入图片描述

神经网络

知识点

M-P神经元

模型如图所示:
在这里插入图片描述
 神经元的工作机理:神经元接收来到n个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过"激活函数"处理以产生神经元的输出。
单个M-P神经元:感知机(sgn作激活函数)、对数几率回归(sigmoid作激活函数)
在这里插入图片描述

多个M-P神经元:神经网络

感知机模型

 激活函数为sgn(阶跃函数)的神经元:

在这里插入图片描述
在这里插入图片描述
 若两类模式是线性可分的,即存在一个线性超平面将它们分开,如图5.4(a)-(c)所示,则感知机的学习过程一定会收敛而求得适当的权向量W,否则感知机学习过程将会发生振荡,W难以稳定下来,不能求得合适解,例如感知机不能解决(d)所示的异或这样简单的非线性可分问题。
在这里插入图片描述
 要解决非线性可分问题,需考虑使用多层功能神经元,如下图,简单的两层感知机就能解决异或问题。
在这里插入图片描述
权重调整:
在这里插入图片描述

神经网络

 通用近似定理:只需一个包含足够多神经元的隐层,多层前馈网络就能以任意精度逼近任意复杂度的连续函数,因此,神经网络既能做回归,也能做分类,而且不需要复杂的特征工程。
多层前馈神经网络:每层神经元与下一层神经元全互连,神经元之间不存在同层连接,也不存在跨层连接。

误差逆传播(BP)算法
在这里插入图片描述

在这里插入图片描述
通常说“BP网络”时,一般是指用BP算法训练的多层前馈神经网络。
 BP算法的工作流程:先将输入示例提供给输入层神经元,然后逐层将信号前传,直到产生输出层的结果;然后计算输出层的误差,再将误差逆向传播至隐层神经元,最后根据隐层神经元的误差来对阈值和连接权进行调整,该迭代过程循环进行,直到达到某些停止条件为止,例如:训练误差已达到一个很小的值。
 目标:要最小化训练集上的累积误差,一般来说,标准BP算法每次只针对单个样例,参数更新得非常频繁,而且对不同的样例进行更新的效果可能出现“抵消”现象。

http://www.lryc.cn/news/20177.html

相关文章:

  • 进程地址空间(虚拟地址空间)
  • 【项目精选】基于Vue + ECharts的数据可视化系统的设计与实现(论文+源码+视频)
  • JavaScript Window Screen
  • 【双重注意机制:肺癌:超分】
  • 各种中间件的使用
  • Systemverilog覆盖率的合并和计算方式
  • (周末公众号解读系列)2000字-视觉SLAM综述
  • 力扣29-两数相除
  • 【MindSpore】安装和使用MindSpore 2.0.0版本简单实现数据变换Transforms功能
  • PRML笔记4-绪论中推断和决策小结
  • DSPE-PEG-Streptavidin;Streptavidin-PEG-DSPE;磷脂聚乙二醇链霉亲和素,科研用试剂
  • Java中的Stream
  • 【数据库】关系数据理论
  • 初阶C语言——结构体【详解】
  • 盘点:9款身份和访问管理工具
  • Linux下的进程地址空间
  • Web Spider Ast-Hook 浏览器内存漫游 - 数据检索
  • 开源启智,筑梦未来!第四届OpenI/O启智开发者大会开幕
  • CS144-Lab6
  • 最好的个人品牌策略是什么样的
  • 第四届国际步态识别竞赛HID2023已经启动,欢迎报名
  • 「2」指针进阶——详解
  • 计网笔记 网络层(端到端的服务)
  • [蓝桥杯 2018 省 B] 日志统计——双指针算法
  • SpringMVC请求转发和重定向
  • 如何建立项目标准化评价体系?【锦狸】
  • Vue基础入门讲义(二)-语法基础
  • 应广单片机用8位乘法器实现16位乘法运算
  • Android中使用GRPC简明教程
  • 【Linux】使用U盘自动化安装Linux(VMware虚拟机)