当前位置: 首页 > news >正文

上海人工智能实验室的书生·浦语大模型学习笔记(第二期第三课——上篇)

书生·浦语是上海人工智能实验室和商汤科技联合研发的一款大模型,这次有机会参与试用,特记录每次学习情况。

一、课程笔记

本次学习的是RAG(Retrieval Augmented Generation)技术,它是通过检索与用户输入相关的信息片段,并结合外部知识库来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。

 RAG 能够让基础模型实现非参数知识更新,无需训练就可以掌握新领域的知识。本次课程选用的茴香豆应用,就应用了 RAG 技术,可以快速、高效的搭建自己的知识领域助手。

“茴香豆”是一个基于 LLM 的领域知识助手。特点:

  1. 应对群聊这类复杂场景,解答用户问题的同时,不会消息泛滥
  2. 提出一套解答技术问题的算法 pipeline
  3. 部署成本低,只需要 LLM 模型满足 4 个 trait 即可解答大部分用户问题

 

二、作业 

(一)基础作业

1、在
茴香豆web版中创建自己领域的知识问答助手 

(1)登陆茴香豆web版OpenXLab浦源 - 应用中心应用中心提供应用托管的服务,用户只需遵循平台规范,通过简单的前端封装组件(Gradio)即可构建模型推理应用演示demo,应用中心提供免费应用部署的能力,普通用户也可在应用中心中交互式体验模型的能力,更好帮助用户寻找想要的学术模型或应用服务。通过前端封装组件和平台的SDK工具,帮助AI开发者简单快速构建人工智能应用。icon-default.png?t=N7T8https://openxlab.org.cn/apps/detail/tpoisonooo/huixiangdou-web
 (2)在网页页面输入自己的知识数据库的账号密码。

第一次使用的时候,它会自动生成一个账号。

账号生成成功。 

(3)上传文档
上传InterML技术报告

上传文档成功。 截止现在,一切顺利,操作简单。

 (3)在问答区中作答。
提问一:请介绍InternLM2模型

提问二:InternLM2模型是由哪个组织开发的? 
提问三:除了上海人工智能实验室,还有哪些机构参与撰写了这篇论文?

提问四:介绍InternLM2模型的评测结果  

提问五:InternLM2模型采用了哪些预训练技术? 

http://www.lryc.cn/news/336579.html

相关文章:

  • 前端小白的学习之路(Vue2 三)
  • ChatGPT 之优势与缺陷
  • python爬虫———post请求方式(第十四天)
  • 51蓝桥杯之DS18B20
  • TiDB 组件 GC 原理及常见问题
  • 【c++】STl-list使用list模拟实现
  • 号卡极团分销管理系统 index.php SQL注入漏洞复现
  • 内核驱动更新
  • 故障诊断 | 一文解决,PLS偏最小二乘法的故障诊断(Matlab)
  • 我为什么选择成为程序员?
  • Open CASCADE学习|统计形状拓扑数量
  • LeetCode 热题 100 题解(二):双指针部分(2)| 滑动窗口部分(1)
  • 常用的深度学习自动标注软件
  • 选择程序员是为什么?
  • 线程池参数如何设置
  • qt环境搭建-镜像源安装Qt Creator(5.15.2)以及配置环境变量
  • SQL Server详细安装使用教程
  • 深度解读C++17中的std::string_view:解锁字符串处理的新境界
  • 汇编基础-----常见命令基本使用
  • 科研学习|可视化——相关性结果的可视化
  • MapReduce过程解析
  • 速看!这8道嵌入式面试题你都会吗?
  • 基于SSM的电影网站(有报告)。Javaee项目。ssm项目。
  • SOCKS代理是如何提高网络性能和兼容性的?
  • 好菜每回味道不同--建造者模式
  • RuoYi-Cloud下载与运行
  • Vue2.x计算属性
  • Vue中使用require.context()自动引入组件和自动生成路由的方法介绍
  • 【炒股Zero To Hero】MACD金叉死叉到底是否有效,加上这个指标回报率增加197倍
  • Linux网络名称空间和虚拟机有何区别