当前位置: 首页 > news >正文

书生.浦江大模型实战训练营——(四)书生·浦语大模型全链路开源开放体系

最近在学习书生.浦江大模型实战训练营,所有课程都免费,以关卡的形式学习,也比较有意思,提供免费的算力实战,真的很不错(无广)!欢迎大家一起学习,打开LLM探索大门:邀请连接,PS,邀请有算力哈哈

任务

观看本关卡的视频与官网后,写下关于书生大模型全链路开源开放体系的笔记。

书生·浦语大模型全链路开源开放体系

  • 一、体系概述
  • 二、发展历程
  • 三、最新版本特性:书生·浦语大模型2.5

视频时长约30分钟,内容涵盖了书生·浦语大模型的全链路开发体系及其关键技术,学到的东西很多。接下来我会继续研究知识图谱、检索增强生成以及基于图神经网络的长文本处理,期待大家一起交流!以下是对此视频内容的详细总结。

一、体系概述

书生·浦语大模型全链路开源开放体系旨在构建一个包括数据收集、模型训练、微调、评测以及AI应用部署的完整生态。通过开源代码和项目,推动了人工智能的普及与实际应用,使得研究者和开发者能更高效地利用和开发基于大模型的应用。

在这里插入图片描述

二、发展历程

  1. 开源开放体系的建立:书生·浦语大模型自始便重视开源,通过发布开源项目吸引了众多开发者和研究者的参与。这种开放的形式加快了模型的迭代与优化。

  2. 数据收集与整理:该模型在数据驱动的过程中,采用多种数据生成方式,包括基于规则、模型以及反馈的数据生成。这提高了数据的多样性,增强了模型的推理能力及短期记忆。

  3. 反馈机制的引入:引入相似度对齐与基于反馈的强化训练后,模型在理解用户需求方面的表现有所提升,进而提高了准确性和用户满意度。

在这里插入图片描述

三、最新版本特性:书生·浦语大模型2.5

  1. 性能提升:在最新版本的书生·浦语大模型2.5中,推理能力和短期记忆等方面得到了显著提升,从而在处理复杂问题时更快速且准确。

  2. Label LLM项目开源:为了简化数据标注过程,书生团队开源了Label LLM项目,提供了高效的数据标注解决方案,进而促进后续模型的训练和优化。

  3. 性能评测体系:视频中的性能天梯展示了通过各种评测工具对模型进行实时性能监测和比较的方法,为模型的持续优化提供了依据。

在这里插入图片描述

以下是一段简单的internLM推理代码示例:

import torch
from transformers import AutoTokenizer, AutoModelForCausalLMmodel_name_or_path = "/root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True, device_map='cuda:0')
model = AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map='cuda:0')
model = model.eval()system_prompt = """You are an AI assistant whose name is InternLM (书生·浦语).
- InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.
- InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文.
"""messages = [(system_prompt, '')]print("=============Welcome to InternLM chatbot, type 'exit' to exit.=============")while True:input_text = input("\nUser  >>> ")input_text = input_text.replace(' ', '')if input_text == "exit":breaklength = 0for response, _ in model.stream_chat(tokenizer, input_text, messages):if response is not None:print(response[length:], flush=True, end="")length = len(response)

希望这些内容能对大家理解书生·浦语大模型有所帮助!

http://www.lryc.cn/news/423416.html

相关文章:

  • SpringBoot 整合 RabbitMQ 实现延迟消息
  • Cilium:基于开源 eBPF 的网络、安全性和可观察性
  • Axios 详解与使用指南
  • 深度学习 —— 个人学习笔记20(转置卷积、全卷积网络)
  • 解决Mac系统Python3.12版本pip安装报错error: externally-managed-environment的问题
  • lvm知识终结
  • ESP32S3 IDF 对 16路输入输出芯片MCP23017做了个简单的测试
  • 【技术前沿】Flux.1部署教程入门--Stable Diffusion团队最前沿、免费的开源AI图像生成器
  • Redis 的 STREAM 和 RocketMQ 是两种不同的消息队列和流处理解决方案,它们在设计理念、功能和用途上有显著区别。以下是它们的主要区别:
  • Visual Studio Code安装与C/C++语言运行(上)
  • 探索数据可视化,数据看板在各行业中的应用
  • haralyzer 半自动,一次性少量数据采集快捷方法
  • mall-admin-web-master前端项目下载依赖失败解决
  • 【07】JVM是怎么实现invokedynamic的
  • 使用API有效率地管理Dynadot域名,查看参与的拍卖列表
  • Linux 基本指令讲解
  • PRE_EMPHASIS
  • 【QT常用技术讲解】多线程处理+全局变量处理异步事件并获取多个线程返回的结果
  • 数组列表中的最大距离
  • C语言新手小白详细教程(7)指针和指针变量
  • Kafka保证消息不丢失
  • 数据结构+基数排序算法
  • C++ list【常用接口、模拟实现等】
  • 12.面试题——Spring Boot
  • 【前端VUE】npm i 出现版本错误等报错 简单直接解决命令
  • 精彩回顾 | 风丘科技亮相2024名古屋汽车工程博览会
  • 设计模式21-组合模式
  • 如何选择深度学习的损失函数和激活函数
  • DATAX自定义KafkaWriter
  • Mybatis分页多表多条件查询