当前位置: 首页 > news >正文

【AI之路】使用RWKV-Runner启动大模型,彻底实现大模型自由

文章目录

  • 前言
  • 一、RWKV-Runner是什么?
    • RWKV-Runner是一个大语言模型的启动平台
    • RWKV-Runner官方功能介绍
  • 二、使用步骤
    • 1. 下载文件
  • 总结


前言

提示:这里可以添加本文要记录的大概内容:

ChatGPT的横空出世,打开了AI的大门,但是国内访问ChatGPT障碍颇多,那么有没有适合我们国人的大模型呢?答案是肯定的。

在国人的聪明和勤劳下,这些都不是事儿。

今天我们就介绍一款国人开发的AI平台,关键是可以部署在本地,还可以远程访问。最关键的是免费!!!

对于文章、小说的宝宝们简直是福音!


一、RWKV-Runner是什么?

RWKV-Runner是一个大语言模型的启动平台

它会全自动为你处理一切,你只需要一个仅仅几MB的可执行程序。作者充分考虑了使用者的想法,以傻瓜式的方式即可启动该平台。

Gitee 地址:https://gitee.com/josc146/RWKV-Runner
GitHub地址:https://github.com/josStorer/RWKV-Runner

RWKV-Runner官方功能介绍

RWKV模型管理,一键启动
前后端分离,如果你不想使用客户端,也允许单独部署前端服务,或后端推理服务,或具有WebUI的后端推理服务。 简明服务部署示例 | 服务器部署示例
与OpenAI API兼容,一切ChatGPT客户端,都是RWKV客户端。启动模型后,打开 http://127.0.0.1:8000/docs 查看API文档
全自动依赖安装,你只需要一个轻巧的可执行程序
预设多级显存配置,几乎在各种电脑上工作良好。通过配置页面切换Strategy到WebGPU,还可以在AMD,Intel等显卡上运行
自带用户友好的聊天,续写,作曲交互页面。支持聊天预设,附件上传,MIDI硬件输入及音轨编辑。 预览 | MIDI硬件输入
内置WebUI选项,一键启动Web服务,共享硬件资源
易于理解和操作的参数配置,及各类操作引导提示
内置模型转换工具
内置下载管理和远程模型检视
内置一键LoRA微调 (仅限Windows)
也可用作 OpenAI ChatGPT 和 GPT Playground 客户端 (在设置内填写API URL和API Key)
多语言本地化
主题切换
自动更新

二、使用步骤

1. 下载文件

下载懒人包:
https://pan.baidu.com/s/1zdzZ_a0uM3gDqi6pXIZVAA?pwd=1111

将下载后的文件放到:D:\ProgramData\RWKV。这里放到D盘目录是因为运行文件后会自动生成很多文件,而且模型一般比较大,放在C盘容易造成空间问题。

运行后RWKV-Runner_windows_x64.exe后,目录内容生成如下:
在这里插入图片描述
运行后界面如下:
在这里插入图片描述
看到这个界面,是不是很兴奋,别着急。不信你点击“运行”试试。

在这里插入图片描述
哦,原来是没有Python运行环境(虽然本地允许有运行环境,但没有配置前,那都不算数。为方便,也为与其它环境隔离,我们单独建立Python运行环境,这里的版本是3.10),点下载安装Python。

在这里插入图片描述
安装Python,还是不行,纳尼?还去依赖库,是啊,哪个Python不是一堆积木拼出来的。继续点安装。
在这里插入图片描述
会弹出一个cmd命令窗口,可以看到正在下载各种库,这个不用管,让系统自动下载就好,安装完第三方库,窗口会自动关闭。
在这里插入图片描述
再次点击运行,又提示模型文件不存在!对头,这里虽然选择了默认的模型:GPU-2G-1B5-World,但模型文件我们并没有下载。

这里我们切换到“模型”页面,国内下载记着勾选“使用Hugging Face镜像源”,这样下载会快一些。
在这里插入图片描述

注:如果觉得这个下载也慢,也可以借用笔者的终极大法,参见之前文章进行下载。
【AI之路】使用huggingface_hub通过huggingface镜像站hf-mirror.com下载大模型(附代码,实现大模型自由)
在这里插入图片描述
下载完大模型,再次点击运行,又报错。因为笔者这里没有使用英伟达的GPU,所以自然没有NVIDIA驱动,也没有CUDA可以进行加速,那就不能玩了吗?其实还是可以的。按如下修改即可。
在这里插入图片描述
进入配置页面,选择刚才下载的模型,将Strategy切换为CPU即可,如下图:
在这里插入图片描述
切换后,还需要对模型进行转化才可以使用。默认精度int8,选择fp16,之后转换为GGML格式。在models目录就会看到除了刚才下载的模型,又多了一个带fp16的bin文件。
在这里插入图片描述
再次返回主界面,进入聊天,即可开启对话模式。如下:

在这里插入图片描述
在下面的对话框输入消息,并点击右侧的向上箭头发送给大模型,就可以看到大模型已经开始运行,并反馈结果了。

另外,这里我们可以调节右侧的参数,调整大模型的生成效果。这个UI作者也是非常用心的。把鼠标放在参数上就会显示参数的功用。
参数“最大响应Token”最重要,决定了一次对话生成内容的长度。可根据自己需要修改。GPU的话,可以放到最大,CPU放到最大就看你的CPU性能了。


总结

通过以上安装测试,终于完成RWKV大模型的加载,这样我们就可以随心所欲的生成需要的内容了。再也不用操心token不够用的问题了。不过大模型还是需要调教的,在电脑性能、大模型产能和效果之间取一个平衡才是最好。

另外,细心的小伙伴已经发现,这个大模型启动平台还有个web访问地址:http://127.0.0.1:8000/#/。我们直接打开地址可以看到如客户端 一般模样的UI。甚至还可以通过其它平台,使用这个界面调用。如果加上ddns还可以实现远程的访问。此为后话,有需要的小伙伴可以自行研究。

http://www.lryc.cn/news/298655.html

相关文章:

  • Dockerfile和.gitlab-ci.yml文件模板
  • Linux--基础开发工具篇(2)(vim)(配置白名单sudo)
  • Learn LaTeX 017 - LaTex Multicolumn 分栏
  • Android 9.0 禁用adb install 安装app功能
  • 华为第二批难题五:AI技术提升六面体网格生成自动化问题
  • 【FFmpeg】ffplay 命令行参数 ⑤ ( 设置音频滤镜 -af 参数 | 设置统计信息 -stats 参数 | 设置同步时钟类型 -sync 参数 )
  • vscode开发FPGA(0)--windows平台搭建
  • Java String源码剖析+面试题整理
  • 探索未来:集成存储器计算(IMC)与深度神经网络(DNN)的机遇与挑战
  • [C/C++] -- CMake使用
  • 笔记本选购配置参数详解
  • 临睡之际的生死思索与生命哲学的启示
  • QT学习(五)C++函数重载
  • 微服务OAuth 2.1扩展额外信息到JWT并解析(Spring Security 6)
  • Python@setter用法介绍
  • 格子表单GRID-FORM | 文档网站搭建(VitePress)与部署(Github Pages)
  • mac无法往硬盘里存东西 Mac硬盘读不出来怎么办 Mac硬盘格式 硬盘检测工具
  • DataX源码分析 reader
  • openssl3.2 - exp - RAND_bytes_ex
  • Oracle中怎么设置时区和系统时间
  • 常见的物联网操作系统介绍
  • 二级C语言笔试10
  • 【WebSocket】微信小程序原生组件使用SocketTask 调用星火认知大模型
  • [1-docker-01]centos环境安装docker
  • 深度学习基础之《深度学习介绍》
  • 4核8g服务器能支持多少人访问?2024新版测评
  • Linux中pipe管道操作
  • 中年中产程序员从西安出发到海南三亚低成本吃喝万里行:西安-南宁-湛江-雷州-徐闻-博鳌-陵水-三亚-重庆-西安(2.游玩过程)
  • day38 面向对象编程、构造函数等(纯概念)
  • nginx用域名http://xx.com/aaa/代理一个网页http://ff.com但是请求资源时发生404