当前位置: 首页 > news >正文

IAPP发布《2024年人工智能治理实践报告》

文章目录

  • 前言
  • 一、黑箱问题
    • ►透明度、可理解性与可解释性
  • 二、法律和政策中的注意事项
    • ►欧盟的《通用数据保护条例》
    • ►欧盟的AI法案
    • ►NIST的AI风险管理框架
    • ►美国的第14110号行政命令
    • ►《生成式人工智能服务管理暂行办法》
    • ►新加坡的AI验证
  • 三、实施人工智能治理
    • ►模型卡与系统卡
    • ►开源AI
    • ►水印标记


前言

2024年6月,IAPP和FTI Consulting发布了《2024年人工智能治理实践报告》,报告旨在向人工智能治理专业人员提供信息,让其了解在构建和完善人工智能治理计划时,需要意识到人工智能治理正面临多重挑战。

具体而言,报告介绍了数据挑战,隐私和数据保护挑战,透明度、可理解性与可解释性挑战,偏见、歧视与不公平挑战,安全与稳健性挑战和版权挑战。本文主要摘译透明度、可理解性与可解释性挑战这一部分进行介绍。

在这里插入图片描述


一、黑箱问题

缺乏对人工智能系统信任的一个原因是用户无法清楚地理解人工智能的运作原理。这可能是由于模型本身的复杂性导致的,也可能是因为知识产权的封闭保护导致的,这通常被称为“黑箱问题”。

目前,深度学习等人工智能技术正变得越来越复杂,且多年来其参数数量呈指数级增长。同时,由于人工智能的强大自我学习能力以及它们的规模性和复杂性,黑箱问题变得越来越难以解决,通常需要去权衡简化AI系统的一些方面。

►透明度、可理解性与可解释性

透明度(Transparency)是一个广泛的概念,可以包括在整个生命周期中对技术和非技术文档的需求。在开源环境中,透明度也可以指提供对代码或数据集的访问权限,供开源社区中的人工智能系统使用。

透明度的目标还可以包括在用户与人工智能系统交互时通知用户,或者识别内容是否由人工智能生成。对于设计和使用这些系统的人来说&#

http://www.lryc.cn/news/439359.html

相关文章:

  • 了解MySQL 高可用架构:主从备份
  • [OpenCV] 数字图像处理 C++ 学习——15像素重映射(cv::remap) 附完整代码
  • Oreace每日运维操作
  • 【XR】AR HUD
  • C/C++内存管理——内存泄漏/内存碎片
  • 使用 GaLore 预训练LLaMA-7B
  • gitlab无法push(pre-receive hook declined)
  • 物品识别——基于python语言
  • 【PostgreSQL】安装及使用(Navicat/Arcgis),连接(C#)
  • 第L6周:机器学习-随机森林(RF)
  • 【电路笔记】-差分运算放大器
  • git 命令---想要更改远程仓库
  • LeetCode:2848. 与车的相交点 一次遍历,时间复杂度O(n)
  • Xcode 16 RC (16A242) 发布下载,正式版下周公布
  • git 更换远程地址的方法
  • 9. 什么是 Beam Search?深入理解模型生成策略
  • Spring自定义注解
  • 微信小程序:wx.login或调用uni.login时报错the code is a mock one
  • URL的执行流程
  • 双指针算法专题(2)
  • 加密与安全_优雅存储用户密码的最佳实践
  • 【多线程】深入剖析线程池的应用
  • 『功能项目』切换职业面板【48】
  • 【EasyExcel】@ColumnWidth(value = 20) EasyExcel设置列宽不生效
  • CPU 和 GPU:为什么GPU更适合深度学习?
  • 【机器学习】:解锁数据背后的智慧宝藏——深度探索与未来展望
  • 【Kubernetes】常见面试题汇总(十八)
  • 无限边界:现代整合安全如何保护云
  • HTML贪吃蛇游戏
  • HTML 揭秘:HTML 编码快速入门