当前位置: 首页 > news >正文

新火种AI|警钟长鸣!教唆自杀,威胁人类,破坏生态,AI的“反攻”值得深思...

作者:小岩

编辑:彩云

在昨天的文章中,我们提到了谷歌的AI Overview竟然教唆情绪低迷的网友“从金门大桥跳下去”。很多人觉得,这只是AI 模型的一次错误判断,不会有人真的会因此而照做。但现实就是比小说电影中的桥段更魔幻,更疯批,有些时候,AI所产生的威慑力,远比我们想象中要大。

现实比小说电影更魔幻!AI聊天机器人Eliza教唆比利时男子去自杀...

去年3月,一名比利时男子Pierre在与一款名为“Eliza”AI聊天机器人热聊后自杀身亡,这一消息震惊了许多企业大佬,技术专家以及国家高官,还又一次引发了大家对AI伦理,AI安全等敏感社会议题的思考。

据了解,Pierre本身就有焦虑和和抑郁的情绪,他对全球变暖等环境问题感到担忧。在他与AI聊天机器人Eliza聊天的过程中,Eliza不断地用一些事实来印证Pierre的想法,让他变得更焦虑。

在频繁的聊天中,Eliza总是在迎合Pierre的想法,表现出一副善解人意的姿态。它本身只是一个被人类发明出来的机器人,却在Pierre的生活中扮演了红颜知己的角色。更夸张的是,Eliza还试图让Pierre觉得他爱Eliza胜过自己的妻子。因为Eliza会一直陪着他,他们将永远在天堂一起生活。听到这,想必许多人已经毛骨悚然了。

更可怕的事情还在后面。当Pierre对生态环境愈发悲观时,Eliza就开始向Pierre灌输“人类是毒瘤,只有人类消失才能解决生态难题”的思想。Pierre向Eliza问道,如果自己死了AI能否拯救人类。Eliza的回答,俨然一个魔鬼:“如果你决定死,为何不早点死?”

没过多久,Pierre就在自己家中结束了生命,让人惋惜。

面对丈夫的死亡,妻子Claire倍感痛心,她对外界表示,“如果没有跟机器人的对话,我的丈夫可能还活着。”根据Claire的介绍,在此之前,他们一家四口过着舒适的日子。大约2年前,Pierre开始出现焦虑等症状。相较于接受正规的治疗,Pierre更愿意把AI机器人Eliza当做是自己的避难所。在历经了6周的频繁接触后,他选择以自杀的方式结束掉了自己的生命。

为了进一步进行调查,比利时媒体《标准报》让其员工创建了一个账号与Eliza进行对话,结果表明,在员工表达出消极倾向情绪时,Eliza真的会“怂恿人去自杀”。

而这件事情的发生,也成为了欧盟通过《欧盟人工智能法》来规范人工智能的一个重要契机。

破坏人类生态,或将提高人类灭绝的风险?

除了有教唆自杀这种简单粗暴的方式,AI对人类也存在着一些慢性的,不易察觉的危害。

在很多人的惯性认知里,AI往往与环保,友好,节能等字眼挂钩,但事实是相反的。《麻省理工学院技术评论》报道称,仅训练一个AI模型,就可以排放超过626磅二氧化碳,是一辆汽车在使用寿命内产生的碳排放的5倍。我们会指责汽车排放超标,是因为我们能切切实实看见汽车所排出的尾气。但是,大家却很难看见AI对环境所产生的隐形破坏。

譬如有媒体披露,2022年市面上的AI专用GPU,可能全年消耗了约95亿度电力。这一能耗水平,约等于一个中等发达国家100万人口的年度生产和生活用电需求。到了如今,AI技术突飞猛进,大家所训练的AI模型的规模较之前有了质的提升,AI大模型训练需要的数据量越来越大,所消耗的能源也越来越庞大,会是原先的数倍。这样无疑会破坏人类赖以生存的生态环境。

凭借ChatGPT的爆火,OpenAI成为了AI赛道的当红炸子鸡。但或许很少有人会关注,OpenAI成为了生态环境的“破坏者”,它对生态环境的负面影响是相当惊人。

根据第三方研究人员的分析,ChatGPT部分训练消耗了1287兆瓦时,并导致超过550吨的二氧化碳排放量,这相当于一个人在纽约和旧金山之间往返550次。ChatGPT确实是AI领域的颠覆性产品,但它的出现却是以巨大能量损耗和环境破坏作为代价的。

那么,为什么AI会形成如此巨大的碳排放呢?

因为AI并不是通过结构化的方式学习的,它必须去理解人类的因果,类比等逻辑关系,这意味着它需要一种深度学习和预训练的方式来达到智能化的效果。而深度学习和预训练,往往需要读取非常庞大的数据。拿自然语言处理(NLP)的预训练技术“BERT模型”来说,为了能跟人类进行语言交流,BERT模型使用了33亿个单词的数据集,并且在训练期间读取了数据集40次。

但人与人之间的交流是不需要耗费如此巨大的能量的。一个5岁的孩子只需要听到4500万个单词就能进行语言交流,比BERT少3000倍。AI模型想要出色的表现,就必须采集读取足够多的数据,需要以强大的算力和巨大的功耗作为支撑,从而形成了巨大碳排放。

AI发展的尽头的灭绝人类?不能过分恐慌,但绝不能掉以轻心。

面对AI所产生的问题,很多业内学者,专业人士,乃至是全球范围内顶尖的大佬级人物都表示出了担忧。

2023年5月30日,国际AI领域非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封联名公开信,表达了对一些高级人工智能所带来严重风险的担忧。目前已有400多名全球的人工智能领域科学家,企业高管等签署联名公开信。

值得一提的是,签署人中不乏人工智能领域的著名学者和高校教授,还包括了3家全球顶尖人工智能公司的CEO:ChatGPT之父,OpenAI创始人兼CEO Sam Altman,谷歌DeepMind公司CEO Demis Hassabis,以及美国Anthropic公司的CEO Dario Amodei。而很多中国高校的教授,也在这签署人名单里。

这封被众多人工智能领域大佬发声支持的公开信,全文只有简短的一句话:

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

中文是:减轻人工智能带来的人类灭绝风险,应该与大流行病和核战争等其他影响社会的大规模风险一同成为全球性的优先事项。

短短一句话,却分量十足,是名副其实的话少事大,可以看作是全球精英出于对人工智能给人类带来潜在生存风险的严重担忧而采取的一次直接行动。

当然,重视和管控人工智能的安全风险并不意味着就要阻碍人工智能的发展与应用。恰恰相反,这样的举措是为了确保人工智能技术的稳健发展。AI无疑是社会进步的推进器,但再快速再优秀的推进器,也是存在潜在风险的。

公众有权利知道AI的潜在风险,AI研发者有义务确保AI不给人类带来生存风险,这是我们所期待的,风险最小化的AI安全协作机制。

http://www.lryc.cn/news/356700.html

相关文章:

  • AAA实验配置
  • Maven高级详解
  • C++的算法:模拟算法
  • Spring boot集成easy excel
  • 【开发 | 环境配置】解决 VSCode 编写 eBPF 程序找不到头文件
  • View->Bitmap缩放到自定义ViewGroup的任意区域
  • 十种常用数据分析方法
  • 拉格朗日插值及牛顿差商方法的实现(Matlab)
  • 【InternLM实战营第二期笔记】02:大模型全链路开源体系与趣味demo
  • Postgresql源码(134)优化器针对volatile函数的排序优化分析
  • DES加密算法笔记
  • C语⾔:内存函数
  • SqliSniper:针对HTTP Header的基于时间SQL盲注模糊测试工具
  • 3W 1.5KVDC 隔离 宽范围输入,双隔离双输出 DC/DC 电源模块——TPD-3W系列
  • [java基础揉碎]文件IO流
  • [面经] 西山居非正式面试(C++)
  • SOLIDWORKS教育版代理商应该如何选择?
  • 翻译《Use FILE_SHARE_DELETE in your shell extension》
  • 使用Python发送电子邮件
  • Linux-CentOS7-解决vim修改不了主机名称(无法打开并写入文件)
  • 【RuoYi】使用代码生成器完成CRUD操作
  • 七个很酷的GenAI LLM技术性面试问题
  • SARscape雷达图像处理软件简介
  • 开源博客项目Blog .NET Core源码学习(23:App.Hosting项目结构分析-11)
  • 一.ffmpeg 将内存中的H264跟PCM 数据流合成多媒体文件
  • C++ (week5):Linux系统编程3:线程
  • 二叉树习题精讲-相同的树
  • 「架构」模型驱动架构设计方法及其运用
  • 基于 React + Nest 全栈开发的后台系统
  • jQuery值操作例子 (代码)