当前位置: 首页 > news >正文

LLM Agent发展演进历史(观看metagpt视频笔记)

LLM相关的6篇重要的论文,其中4篇来自谷歌,2篇来自openai。技术路径演进大致是:SSL (Self-Supervised Learning) -> SFT (Supervised FineTune) == IT (Instruction Tuning) -> RLHF。
word embedding的问题:新词如何处理,新词的embedding如何表征;但LLM根据token或字做输出的方式,很大程度上可以解决这个问题。
在这里插入图片描述
在这里插入图片描述

在谷歌有很大的机器资源去调用,使得BERT有机会做成大模型;BERT出来后,NLP之前所有的trick都失效了;BERT证明了大模型这条路是可行的。
在这里插入图片描述

Openai是把所有资源都集中到LLM这一件事情上,集中所有资源于一点,这就是战略选择。
在这里插入图片描述

Instruction tuning非常重要,带来了范式的转化。
[图片]

RLHF将模型毒性从40%降低到0.6%。
[图片]

GPT3.5 turbo,据业界推测,是个20-30B的蒸馏版本模型
[图片]

[图片]

GPT有可能会开源,如果是这样,LLM水平面上升,可能会淹没其它很多开源模型。
[图片]

什么是智能体?智能体= LLM + 记忆 + 规划 + 工具 + 神经 + 直觉
[图片]

Agent需要有硬件支持,是一个全新的物种。暴露度:编程是63.4%,所以编程在很大程度上也是可被替代的。
[图片]

langchain的设计比较糟糕,复杂度太高了;违背了单接口原则。
[图片]

更关注MMLU榜单:https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu
[图片]
[图片]

数据结构和API设计图,有较高价值;LLM具有很强的信息收集、处理能力。一个200w人民币架构师的工作,有可能花几美元就解决。
[图片]

人类在这里主要扮演投资者。
[图片]

http://www.lryc.cn/news/261722.html

相关文章:

  • Linux(操作系统)面经——part2
  • Flink系列之:WITH clause
  • JMeter直连数据库
  • Linux部署MySQL5.7和8.0版本 | CentOS和Ubuntu系统详细步骤安装
  • STL中set和multiset容器的用法(轻松易懂~)
  • Codeforces Round 915 (Div. 2)
  • C语言经典错误总结(三)
  • Ubuntu系统入门指南:基础操作和使用
  • MyBatis原理解读
  • Linux---文本搜索命令
  • Unity中Shader语义的理解
  • Flink系列之:Top-N
  • CSS的三大特性(层叠性、继承性、优先级---------很重要)
  • 飞天使-docker知识点10-docker总结
  • 旅游管理虚拟情景实训教学系统演示
  • Linux Shell——输入输出命令详解
  • MFC 第一个窗口程序
  • SQL语句的执行顺序怎么理解?
  • js解析.shp文件
  • 关于“Python”的核心知识点整理大全25
  • 代码随想录刷题题Day15
  • 软件设计师——信息安全(一)
  • git必须掌握:git远程变动怎么解决
  • Python里的时间模块
  • SCI一区级 | Matlab实现GWO-CNN-GRU-selfAttention多变量多步时间序列预测
  • C#学习相关系列之自定义遍历器
  • WPS没保存关闭了怎么恢复数据?3个方法,完成数据恢复!
  • 数据结构和算法-最小生成树(prim和krusakal)和最短路径问题(BFS和dijkastra和floyd)
  • 响应者链概述
  • ShenYu网关Http服务探活解析