当前位置: 首页 > news >正文

【DL经典回顾】激活函数大汇总(二十七)(Bent Identity附代码和详细公式)

激活函数大汇总(二十七)(Bent Identity附代码和详细公式)

更多激活函数见激活函数大汇总列表

一、引言

欢迎来到我们深入探索神经网络核心组成部分——激活函数的系列博客。在人工智能的世界里,激活函数扮演着不可或缺的角色,它们决定着神经元的输出,并且影响着网络的学习能力与表现力。鉴于激活函数的重要性和多样性,我们将通过几篇文章的形式,本篇详细介绍两种激活函数,旨在帮助读者深入了解各种激活函数的特点、应用场景及其对模型性能的影响。

在接下来的文章中,我们将逐一探讨各种激活函数,从经典到最新的研究成果。

限于笔者水平,对于本博客存在的纰漏和错误,欢迎大家留言指正,我将不断更新。

二、Bent Identity

Bent Identity激活函数是一种非线性激活函数,它在神经网络中引入轻微的非线性,同时保留了接近恒等函数(Identity function)的特性。这使得它可以用于在模型中引入非线性,而不会过度扭曲数据。

1. 数学定义

Bent Identity激活函数定义为:

f ( x ) = x 2 + 1 − 1 2 + x f(x)=\frac{\sqrt{x^2+1}-1}{2}+x f(x)=2x2+1 1+x
其中, x x x是输入信号。
在这里插入图片描述

2. 函数特性

  • 轻微的非线性:Bent Identity函数在原点附近提供了轻微的非线性变形,随着输入值 x x x的增加,函数趋近于线性。
  • 连续可导:该函数在整个实数域内都是连续且可导的,这一点对于使用基于梯度的优化算法训练神经网络是非常重要的。
  • 非饱和性:与Sigmoid或Tanh激活函数不同,Bent Identity函数不会在输入值很大时饱和,这有助于减少梯度消失问题。

3. 导数

Bent Identity函数的导数为:

f ′ ( x ) = x 2 x 2 + 1 + 1 f^{\prime}(x)=\frac{x}{2 \sqrt{x^2+1}}+1 f(x)=2x2+1 x+1
导数显示了在原点附近,随着 x x x的增大,函数变化率从大于1渐渐趋近于1,这有助于保持梯度的传播。

4. 使用场景与局限性

使用场景

  • 轻度非线性引入:在需要在模型中引入非线性,但又不希望非线性太强时,Bent Identity是一个合适的选择。
  • 改善梯度流:用于减轻梯度消失问题,特别是在深层网络中,可以作为一种补充激活函数来使用。

局限性

  • 计算复杂性:与简单的ReLU或者线性激活函数相比,Bent Identity函数的计算更为复杂,可能会增加模型训练的计算成本。
  • 轻微的非线性可能不足:对于需要强烈非线性以捕捉复杂模式的任务,Bent Identity激活函数可能不足以提供所需的模型复杂度。

总体而言,Bent Identity激活函数提供了一种介于线性和非线性之间的激活机制,适合于那些需要轻微非线性而不希望引入太强非线性效果的应用场景。然而,设计神经网络时需要权衡其带来的计算成本和所需的非线性程度。

5.代码实现

这段代码定义了Bent Identity激活函数:

import numpy as npdef bent_identity(x):"""实现Bent Identity激活函数。参数:x -- 输入的数值或NumPy数组。返回:经过Bent Identity激活的输出。"""return (np.sqrt(x**2 + 1) - 1) / 2 + x# 示例输入
x = np.array([-3, -1, 0, 1, 3])# 应用Bent Identity激活函数
output = bent_identity(x)print("Bent Identity Activation Output:", output)
解释
  • 函数定义bent_identity函数接收一个输入x,可以是单个数值或一个NumPy数组。该函数的目的是对x中的每个元素应用Bent Identity激活函数,产生一个经过非线性变换的输出。

  • Bent Identity激活:Bent Identity函数通过np.sqrt(x**2 + 1) - 1) / 2 + x实现,其中x**2 + 1先确保了表达式在整个实数范围内都是正的,从而可以安全地应用平方根。计算平方根之后,减去1、除以2、并加上原始的x值,这样在x接近0时引入轻微的非线性,而当x的绝对值很大时,函数接近于线性。

  • 示例应用和输出:对于示例输入x = [-3, -1, 0, 1, 3],Bent Identity激活函数的输出显示了在原点附近的轻微非线性变化,以及在远离原点时的接近线性行为。特别是,对于0输入,输出恰好是0,证明了在原点附近的非线性特性。

三、参考文献

  • 鉴于Bent Identity函数相对直观的特性,专门聚焦于它的研究论文或文章可能较少,就不给了。
  • 《深度学习》一书(作者:Ian Goodfellow, Yoshua Bengio, 和 Aaron Courville)提供了对激活函数在神经网络中作用的基础性理解。
http://www.lryc.cn/news/321070.html

相关文章:

  • element-plus el-table表格默认选中某一行
  • Vue+SpringBoot打造民宿预定管理系统
  • 基于单片机的模糊PID炉温控制系统设计
  • 深入浅出落地应用分析:AI数字人「微软小冰」
  • 【早鸟优惠|高录用|EI稳定检索】2024年虚拟现实、图像和信号处理国际学术会议(ICVISP 2024)诚邀投稿/参会!
  • CPU设计实战—异常处理指令
  • Elasticsearch(13) match_phrase的使用
  • 通过路由器监控,优化网络效率
  • 使用canvas实现图纸标记及回显
  • 鸿蒙-自定义组件的生命周期
  • 【Linux】自动化构建工具-make/Makefile
  • week07day03(power bi dax公式 零售数据业务分析)
  • rembg报错onnxruntime_providers_tensorrt.dll
  • 精酿啤酒:一口啤酒,一份享受
  • git报: “fatal: detected dubious ownership in repository“
  • 代码随想录算法训练营第27天|93.复原IP地址、78.子集、90.子集二
  • Java微服务轻松部署服务器
  • Wordpress站点通过修改.htaccess 设置重定向实现强制 https 访问
  • 人大金仓助力国家电网调度中心培养国产数据库专家人才
  • 什么是增强型SSL证书?购买一张需要多少钱?
  • C++:函数传参到函数执行结束发生了什么
  • QT中dumpcpp以及dumpdoc使用
  • RPM与DNF的操作实践
  • 车道线检测之LaneNet
  • MySQL连接数不足导致服务异常GetConnectionTimeoutException
  • 软考76-上午题-【面向对象技术3-设计模式】-创建型设计模式01
  • Matlab 双目相机标定(内置函数)
  • 【博客7.4】缤果Qt5_TWS串口调试助手V2.0 (高级篇)
  • CSS案例-4.padding导航栏练习
  • 5.1.4.2、【AI技术新纪元:Spring AI解码】Llama2 Chat