当前位置: 首页 > news >正文

【学习笔记】生成式AI(ChatGPT原理,大型语言模型)

ChatGPT原理剖析

在这里插入图片描述

  • 语言模型 == 文字接龙
    在这里插入图片描述
  • ChatGPT在测试阶段是不联网的。

ChatGPT背后的关键技术:预训练(Pre-train)

  • 又叫自监督式学习(Self-supervised Learning),得到的模型叫做基石模型(Foundation Model)。在自监督学习中,用一些方式“无痛”生成成对的学习资料。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  • GPT1 -> GPT2 -> GPT3 (参数量增加,通过大量网络资料学习,这一过程称为预训练),GPT -> ChatGPT (增加人类老师提供的资料学习),GPT到ChatGPT增加的继续学习的过程就叫做 微调 (finetune)。

预训练多有帮助呢?

  • 在多种语言上做预训练后,只要教某一个语言的某一个任务,自动学会其他语言的同样任务。
    在这里插入图片描述
  • 当在104种语言上预训练,在英语数据上微调后在中文数据上测试的结果(78.8的F1值),和在中文数据上微调并在中文数据上测试的结果(78.1的F1值)相当。
    在这里插入图片描述

ChatGPT带来的研究问题

  • 1.如何精准提出需求
  • 2.如何更正错误【Neural Editing】
  • 3.侦测AI生成的物件
    • 怎么用模型侦测一段文字是不是AI生成的
  • 4.不小心泄露秘密?【Machine Unlearning】

对于大型语言模型的两种不同期待 Finetune vs. Prompt

在这里插入图片描述

  • 成为专才,对预训练模型做改造,加外挂和微调参数。
    在这里插入图片描述
    在这里插入图片描述
  • 成为通才,机器要学会读题目描述或者题目范例
    • 题目叙述–Instruction Learning
    • 范例–In-context Learning
  • In-context Learning
    在这里插入图片描述
  • 给机器的范例的domain是很重要的;范例的数量并不需要很多,并不是通过范例进行学习,范例的作用只是唤醒模型的记忆;也就是说,语言模型本来就会做情感分析,只是需要被指出需要做情感任务。
  • Instruction-tuning
    在这里插入图片描述
http://www.lryc.cn/news/108852.html

相关文章:

  • 【Opencv入门到项目实战】(三):图像腐蚀与膨胀操作
  • Autosar诊断系列介绍20 - UDS应用层P2Server/P2Client等时间参数解析
  • 【iOS】json数据解析以及简单的网络数据请求
  • Kubernetes客户端认证—— 基于ServiceAccount的JWTToken认证
  • 45.ubuntu Linux系统安装教程
  • Jmeter函数助手(一)随机字符串(RandomString)
  • SpringCloud之微服务API网关Gateway介绍
  • 机器学习入门之 pandas
  • Django之JWT库与SimpleJWT库的使用
  • Jmeter远程服务模式运行时引用csv文件的路径配置
  • 《OWASP代码审计》学习——注入漏洞审计
  • Linux虚拟机中安装MySQL5.6.34
  • Django的FBV和CBV
  • [每周一更]-(第57期):用Docker、Docker-compose部署一个完整的前后端go+vue分离项目
  • springboot-mybatis的增删改查
  • HTML5(H5)的前生今世
  • 抽象工厂模式(Abstract Factory)
  • Java 实现下载文件工具类
  • C# 12 预览版的新功能
  • 34.利用matlab解 多变量多目标规划问题(matlab程序)
  • 暑假刷题第18天--7/30
  • 通向架构师的道路之Apache整合Tomcat
  • 如何消除“信息孤岛”对业务增长的威胁?
  • Kali部署dvwa和pikachu靶场
  • ​LeetCode解法汇总722. 删除注释
  • Linux中的firewall-cmd
  • python 最大归一化
  • Netty:ByteBuf写入数据、读出数据
  • C++(15):面向对象程序设计
  • 2023牛客暑期多校训练营6-A Tree