当前位置: 首页 > news >正文

CS231n2017 Lecture16 对抗样本与对抗训练笔记

对抗性(Adversarial):

指深度学习模型,对输入数据中极其微小、人眼难以察觉的特定扰动高度敏感的特性,这种扰动被称为对抗性扰动

原理:

模型在高维数据空间中学习到的决策边界非常复杂且不robust,在远离决策边界的大部分区域,模型表现良好,但在靠近边界的一些“平坦”或“狭窄”的区域,一个微小的扰动(方向正确)就能把样本推到边界的另一边,导致模型作出完全错误的预测

对抗样本(Adversarial Examples):

是经过精心设计的输入样本,它在原始样本上添加了人无法观察的微小扰动,目的是故意欺骗深度学习模型,使之产生高置信度的错误输出

关键特征:

1.微小性:

扰动幅度很小,比如图像中每个像素值的变化小于\epsilon

2.针对性:

扰动是特意计算出来的,不是随机噪声,其方向是利用模型梯度等信息,朝着最大化模型预测错误的方向修改(如对错误的标签使用Gradient Ascent)

3.高欺骗性:

对抗样本能导致模型以极高的置信度输出完全错误的类别

生成方法:

快速梯度符号法:

利用模型loss相对于输入数据的梯度来确定扰动方向

投影梯度下降:

迭代地在梯度方向上添加扰动,并将结果投影到允许的扰动范围内

基于优化的方法:

直接优化扰动,最小化扰动幅度的同时最大化模型的预测错误

对抗训练(Adversarial Training):

是一种提高模型鲁棒性(robust),抵抗对抗样本攻击的能力的主要技术,核心思想是在训练过程中主动将对抗样本纳入训练集

原理:

1.动态生成对抗样本:

在训练的每个Batch(或每隔几步),使用当前模型为训练数据生成对抗样本

2.混合训练:

将这些生成的对抗样本加入到训练数据中

3.最小化对抗风险:

模型被要求在对抗样本上也要作出正确预测,其loss通常包含两部分:原始样本上的loss和对抗样本上的loss

http://www.lryc.cn/news/614235.html

相关文章:

  • Numpy科学计算与数据分析:Numpy布尔索引与花式索引实战
  • 如何板端编译OpenCV并搭建应用--基于瑞芯微米尔RK3576开发板
  • Spring系列之Spring AI入门
  • MySQL definer does not exist 问题分析
  • 一动鼠标就锁屏,设备活动监控方案的技术实现与应用
  • CPO-SVM分类预测+特征贡献SHAP分析,通过特征贡献分析增强模型透明度,Matlab代码实现,引入SHAP方法打破黑箱限制,提供全局及局部双重解释视角
  • ctrl+alt+方向键导致屏幕旋转的解决方法
  • Atto Round 1 (Codeforces Round 1041, Div. 1 + Div. 2)
  • apiSQL网关调优:释放单节点的最大潜能
  • FreeRTOS---基础知识5
  • 【问题解决】使用patch-package修改node-models中的源码
  • Java 之 多态
  • CSS--后端也有自己的CSS要学
  • 腾讯 WeKnora 深度解析:大模型时代文档理解与检索的技术突破
  • Git 基础操作笔记(速查)
  • 解决:开启魔法后vscode pip命令不能安装中科大python镜像问题
  • Product Hunt 每日热榜 | 2025-08-08
  • 20250808:EasyGBS 对接大华 ICC 平台问题处理
  • 智慧农业温室大棚物联网远程监控与智能监测系统
  • 存储管理、XFS 增量备份恢复、LVM
  • 医疗设备专用电源滤波器的安全设计与应用价值|深圳维爱普
  • 【探展WAIC】从“眼见为虚”到“AI识真”:如何用大模型筑造多模态鉴伪盾牌
  • 显示器同步技术终极之战:G-Sync VS. FreeSync
  • 日本语言学校|ICA国际会话学院:从原始文本到结构化事实的建模实录(工程师向)
  • 888. 公平的糖果交换
  • 机器学习之支持向量机(原理)
  • Go 踩过的坑之协程参数不能过大
  • 四、redis入门之集群部署
  • 惯量时间常数 H 与转动惯量 J 的关系解析
  • UE5 图片9宫格切割