当前位置: 首页 > news >正文

深度学习_L2正则化

文章目录

  • 参考博客
  • 正则化介绍
  • 正则化的实现

参考博客

深入理解L1、L2正则化
PyTorch 实现L2正则化以及Dropout的操作

正则化介绍

正则化(Regularization)是机器学习中一种常用的技术,其主要目的是控制模型复杂度,减小过拟合。最基本的正则化方法是在原目标(代价)函数 中添加惩罚项,对复杂度高的模型进行“惩罚”。其数学表达形式为:
Jˇ(w;X,y)=J(w;X,y)+αΩ(w)\check{J}(w; X, y)=J(w; X, y) + \alpha\Omega(w)Jˇ(w;X,y)=J(w;X,y)+αΩ(w)
式中X,yX, yX,y为训练样本和相应标签, www为权重系数向量; J()J()J()为目标函数, Ω(w)\Omega(w)Ω(w)即为惩罚项, 可理解为模型"规模"的某种度量; 参数α\alphaα控制正则化的强弱. 不同的Ω\OmegaΩ函数对权重w的最优解有不同的偏好, 因而会产生不同的正则化效果. 最常用的Ω\OmegaΩ函数有两种, 即l1l_1l1范数与l2l_2l2范数, 相应称之为l1l_1l1正则化和l2l_2l2正则化.此时有:
l1:Ω(w)=∣∣w∣∣1=∑i∣wi∣l_1: \Omega(w)=||w||_1=\sum_i|w_i|l1:Ω(w)=∣∣w1=iwi
l2:Ω(w)=∣∣w∣∣2=∑iwi2l_2: \Omega(w)=||w||_2=\sqrt{\sum_iw_i^2}l2:Ω(w)=∣∣w2=iwi2

正则化的实现

在Pytorch中正则化的实现只需要一行代码, 如下:

optimizer = torch.optim.SGD(model.parameters(), \
lr=config.learning_rate, momentum=0.9, weight_decay=0.000001)

在这个函数调用中weight_decay=0.001weight\_decay=0.001weight_decay=0.001就是L2范数.

http://www.lryc.cn/news/546.html

相关文章:

  • 第一章 认识Python
  • 复习0206
  • 小红书如何查看笔记
  • linux001之linux系统部署安装
  • 服务异步通信 RabbitMQ-高级篇
  • 【PR】零基础快速入门教程
  • Matlab 点云迭代加权最小二乘法拟合平面(抑制噪声)
  • 2023 软件测试行业内卷动荡,红利期过去后,何去何从?
  • 【王道数据结构】第六章(下) | 图的应用
  • Leetcode:518. 零钱兑换 II(C++)
  • Java中类是什么
  • C进阶:预处理
  • 侯捷C++系统工程师
  • ReentrantReadWriteLock、StampedLock
  • Mysql中的事务、锁、日志详解
  • k8s笔记24--安装metrics-server及错误处理
  • 【电商】订单系统--售后的简易流程与系统关系
  • 低代码开发平台|生产管理-成本核算搭建指南
  • Xshell 安装及使用方法
  • 【Axure教程】转盘抽奖原型模板
  • 量子比特大突破!原子薄材料成为“救世主”
  • Swagger3 API接口文档规范课程(内含教学视频+源代码)
  • 数据库的基本操作
  • 分享5个超好用的Vue.js库
  • 第四章.误差反向传播法—ReLU/Sigmoid/Affine/Softmax-with-Loss层的实现
  • Python-第二天 Python基础语法
  • 命令模式包含哪些主要角色?怎样实现命令?
  • SpringCloud-Feign
  • XCP实战系列介绍08-基于Vehicle Spy进行XCP测量的工程配置详解
  • JVM调优几款好用的内存分析工具