当前位置: 首页 > news >正文

机器学习第十四课--神经网络

总结起来,对于深度学习的发展跟以下几点是离不开的:

  • 大量的数据(大数据)
  • 计算资源(如GPU)
  • 训练方法(如预训练)

    很多时候,我们也可以认为真正让深度学习爆发起来的是数据和算力,这并不是没道理的。

 由于神经网络是深度学习的基础,学习神经网络本身是非常必要的。神经网络中所涉及到的前向传播、反向传播等技术以及梯度消失等现象都会出现在其他深度学习模型如深度神经网络、卷积神经网络、RNN、LSTM中。我们强烈先学好神经网络再去接触深度学习相关的技术,这样会事半功倍。

神经网络,首先是线性变换,然后通过激活函数非线性化

一.线性激活函数

线性激活函数实际上是没作用的,即便加了也等于什么都没加,因为它对信号不会做任何的处理。这有点类似于管道,来了信号之后原封不动地输出出去。之所以提出线性激活函数,其主要目的是为了完整性。那什么会用到线性激活函数呢?通常在,深度模型中的最后一层会用到。另外,如果我们没有叠加任何的激活函数到神经元,默认可以认为是加了线性激活函数。

二.非线性激活函数

2.1Sigmoid激活函数

定义域 :负无穷到正无穷

值域:0到1

特点:

1.值域映射到0-1

2.有边界

3.递增

2.2二分类问题

2.3tanh激活函数

三.拥有一层隐含层的神经网络

单个输出

 多个输出---softmax激活函数

四.多层神经网络

当我们增加额外的隐含层时就可以得到多层神经网络。至于隐含层的个数是没有限制的,我们可以随意搭建很多层的神经网络。为什么要增加隐含层呢?道理很简单,增加隐含层可直接导致模型的复杂度变高,随之带来的就是可以学出x到y的更复杂的映射关系。

首先  这里的参数只有w和b  根据x1-xd输入  输出f(x) 然后会有一个loss  然后反向传播(梯度下降法)求w和b

注:对于分类问题,最后一层的激活函数是softmax

五.深度神经网络的损失函数

任何模型训练的第一步是明确损失函数。模型训练过程无非就是在优化损失函数,从而找到让损失函数最小的模型的参数。在这一节我们主要以深度神经网络为例来讲解反向传播算法,自然而然的,第一步就是要定义出损失函数。在这里先假定任务是分类任务,所以损失部分需要使用交叉熵损失(cross-entropy loss)。

 

http://www.lryc.cn/news/174829.html

相关文章:

  • React(react18)中组件通信04——redux入门
  • 最新AI创作系统+ChatGPT网站源码+支持GPT4.0+支持ai绘画+支持国内全AI模型
  • react+umi项目中引入antd组件报错:“Button”不能用作 JSX 组件解决方案
  • 常用算法模板
  • 最全跨境独立站建站详细步骤解析
  • 提升群辉AudioStation音乐体验,实现公网音乐播放
  • 虹科分享 | 谷歌Vertex AI平台使用Redis搭建大语言模型
  • VS Code 代码跳转到定义(.js 和 .vue文件跳转)
  • 华为云云耀云服务器L实例评测 | Docker 部署 Reids容器
  • 聚观早报 | 杭州亚运开幕科技感拉满;腾讯官宣启动「青云计划」
  • Linux Gnome桌面无法打开终端Terminal
  • MySQL学习笔记15
  • 6、SpringBoot_项目的打包与运行
  • 图像语义分割概述
  • ViT细节与代码解读
  • Linux中软链接与硬链接的作用、区别、创建、删除
  • 第一章:最新版零基础学习 PYTHON 教程(第十四节 - Python 条件和循环语句–Python 中的 with 语句)
  • 安科瑞AMC16-DETT铁塔jizhan直流电能计量模块,直流计量用
  • WebGL笔记:WebGL中JS与GLSL ES 语言通信,着色器间的数据传输示例:js控制绘制点位
  • 一文读懂 Redis 缓存系统
  • 初识Java 10-1 集合
  • Linux- pipe()系统调用
  • 数据库常用指令
  • [Studio]Manifest merger failed with multiple errors, see logs 解决方法
  • 【数据结构与算法】不就是数据结构
  • 封装一个高级查询组件
  • 代码随想录第七章 栈与队列
  • SQL Server对象类型(5)——4.5. 同义词(Synonym)
  • IP风险查询:抵御DDoS攻击和CC攻击的关键一步
  • Tune-A-Video论文阅读