当前位置: 首页 > news >正文

【总结】攻击 AI 模型的方法

  • 数据投毒
    污染训练数据

  • 后门攻击
    通过设计隐蔽的触发器,使得模型在正常测试时无异常,而面对触发器样本时被操纵输出。后门攻击可以看作是特殊的数据投毒,但是也可以通过修改模型参数来实现

  • 对抗样本
    只对输入做微小的改动,使模型做出错误判断

  • 模型窃取
    利用中小模型窃取大模型的特定能力

  • 提示注入
    设计输入,使LLM将输入误认为是指令,生成由攻击者控制的欺骗性输出。可以细分为目标劫持Prompt泄露。目标劫持是将原本的输出目标转向攻击者需要的目标;Prompt 泄露是诱导LLM披露其初始系统 prompt

  • 越狱攻击
    设计输入,绕过安全机制,输出不该输出的东西

参考文献:
【大模型安全】[文献整理] 大模型对抗攻击
什么是提示注入攻击?
Stealing LLMs: 关于对ChatGPT进行模型窃取的一些工作
模型安全:后门攻击
AI Security2-投毒攻击(Poisoning Attacks)

http://www.lryc.cn/news/379936.html

相关文章:

  • Linux配置中文环境
  • 深入解析 iOS 应用启动过程:main() 函数前的四大步骤
  • textarea标签改写为富文本框编辑器KindEditor
  • 高通安卓12-Input子系统
  • HTML 事件
  • Mysql 官方提供的公共测试数据集 Example Databases
  • Docker 下载与安装以及配置
  • Java中的集合框架详解:List、Set、Map的使用场景
  • [Django学习]前端+后端两种方式处理图片流数据
  • 如何配置IOMMU或者SWIOTLB
  • 【大数据 复习】第3章 分布式文件系统HDFS(重中之重)
  • element-ui里message抖动问题
  • Attention系列总结-粘贴自知乎
  • swagger下载文件名中文乱码、swagger导出文件名乱码、swagger文件导出名称乱码、解决swagger中文下载乱码bug
  • 191.回溯算法:组合总和|||(力扣)
  • JupyterLab使用指南(二):JupyterLab基础
  • ubuntu18.04 + openssl + engine + pkcs11+ softhsm2 双向认证测试
  • 【C++】类和对象2.0
  • 【LLM之KG】KoPA论文阅读笔记
  • UI设计速成课:理解模态窗口与非模态窗口的区别
  • 【Linux】基础IO_4
  • C++模板类原理讲解
  • scratch编程03-反弹球
  • postgresql数据库进阶知识
  • 关于HTTP劫持,该如何理解、防范和应对
  • System.Data.OracleClient.OracleException:“ORA-12571: TNS: 包写入程序失败
  • saas产品运营案例 | 联盟营销计划如何帮助企业提高销售额?
  • 模式分解算法-满足3NF的无损且保持函数依赖的分解算法、满足BCNF的无损连接分解算法
  • 荷兰与法国战平,双方能携手出现?
  • 数据可视化实验二:回归分析、判别分析与聚类分析