当前位置: 首页 > news >正文

WebLLM Chat:无服务器、私密的AI聊天体验

在这里插入图片描述

简介

什么是 Web-LLM ?

Web-LLM 是一个高性能的浏览器内语言模型推理引擎,允许用户在没有服务器支持的情况下直接在网页浏览器中进行语言模型推理。它利用 WebGPU 进行硬件加速,从而实现强大的 LLM 操作。Web-LLM 完全兼容 OpenAI API,支持流式处理、JSON 模式生成以及自定义模型集成等功能,为开发者提供了构建 AI 助手和交互式应用的灵活性。通过简单的 npm 包,用户可以快速集成 Web-LLM 到他们的网页应用中。

主要特点包括:

  1. 浏览器内推理:用户可以直接在浏览器中运行大型语言模型,无需服务器支持。
  2. 隐私保护:所有数据处理均在本地进行,确保用户的对话和数据不离开设备。
  3. 兼容 OpenAI API:支持与 OpenAI API 兼容的功能,如流式输出和 JSON 模式生成。
  4. 多模型支持WebLLM 支持多种语言模型,用户可以根据需要选择和集成。
  5. 易于集成:开发者可以通过 npm 包轻松将 WebLLM 集成到自己的应用中。

什么是 Web-LLM Chat ?

Web-LLM Chat 是一个私有的 AI 聊天界面,结合了 WebLLM 的强大功能,允许用户在浏览器中本地运行大型语言模型(LLM)。它利用 WebGPU 加速,实现无须服务器支持的 AI 对话,确保用户的隐私和数据安全。该应用支持离线使用、图像上传和交互,提供友好的用户界面,具有 Markdown 支持和深色模式等功能。

WebLLM Chat 功能演示

构建镜像

如果你不想自己构建,可以跳过,直接阅读下一章节

官方提供了 Dockerfile,但没有提供编译好的镜像,需要自己编译

构建镜像和容器运行的基本命令如下👇

# 下载代码
git clone https://github.com/mlc-ai/web-llm-chat.git# 进入目录  
cd web-llm-chat# 构建镜像
docker build -t wbsu2003/webllmchat:v1 .# 运行容器
docker run -d \--name webllmchat \-p 3013:3000 \wbsu2003/webllmchat:v1

反向代理

如果使用 http 协议访问,页面上会有错误,导致页面卡死

Failed to load resource: net::ERR_SSL_PROTOCOL_ERROR

在这里插入图片描述

假设访问地址为: https://webllmchat.laosu.tech

域名局域网地址备注
webllmchat.laosu.techhttp://192.168.0.197:3013WebLLM Chat 的访问地址

如果你和老苏一样,没有具有公网 IPvps,也是一样可以实现局域网用 https://域名 访问的

文章传送门:用自定义域名访问tailscale节点

npm 中的设置

在这里插入图片描述

SSL 都勾选了

安装

在群晖上以 Docker 方式安装。

在注册表中搜索 webllmchat ,选择第一个 wbsu2003/webllmchat,版本选择 latest

在这里插入图片描述

端口

本地端口不冲突就行,不确定的话可以用命令查一下

# 查看端口占用
netstat -tunlp | grep 端口号
本地端口容器端口
30133000

命令行安装

如果你熟悉命令行,可能用 docker cli 更快捷

# 运行容器
docker run -d \--restart unless-stopped \--name webllmchat \-p 3013:3000 \wbsu2003/webllmchat

也可以用 docker-compose 安装,将下面的内容保存为 docker-compose.yml 文件

version: '3'services:webllmchat:image: wbsu2003/webllmchatcontainer_name: webllmchatrestart: unless-stoppedports:- 3013:3000

然后执行下面的命令

# 新建文件夹 webllmchat 和 子目录
mkdir -p /volume1/docker/webllmchat# 进入 webllmchat 目录
cd /volume1/docker/webllmchat# 将 docker-compose.yml 放入当前目录# 一键启动
docker-compose up -d

在这里插入图片描述

运行

在浏览器中输入 https://webllmchat.laosu.tech 就能看到主界面,会有一个加载的过程

在这里插入图片描述

完成之后就可以开始提问了

在这里插入图片描述

提问后,会开始下载模型

  1. 一旦模型文件下载完成,会被缓存,以便后续使用时能够更快地加载和运行。这种设计确保了用户在享受本地推理的同时,也能减少重复下载的时间和带宽消耗;
  2. 下载的模型在浏览器的开发者工具 --> Application --> Cache storage --> webllm/model 中找到;

在这里插入图片描述

下载完成后还需要加载,然后就能回答问题了

在这里插入图片描述

点模型,可以选择其他的模型

在这里插入图片描述

试试国产的 qwen2.5

在这里插入图片描述

可以看到模型已经切换了

在这里插入图片描述

第一次还是需要下载,然后加载

在这里插入图片描述

看得出来,启用了浏览器的 WebGPU

在这里插入图片描述

虽然台式机也比较古老,但是比用来跑群晖的笔记本平台还是性能强

在这里插入图片描述

虽然慢一点,但起码 7b 也能跑起来

在这里插入图片描述

参考文档

mlc-ai/web-llm: High-performance In-browser LLM Inference Engine
地址:https://github.com/mlc-ai/web-llm

mlc-ai/web-llm-chat: Chat with AI large language models running natively in your browser. Enjoy private, server-free, seamless AI conversations.
地址:https://github.com/mlc-ai/web-llm-chat

WebLLM | Home
地址:https://webllm.mlc.ai/

WebLLM Chat
地址:https://chat.webllm.ai/

WebGPU Report
地址:https://webgpureport.org/

http://www.lryc.cn/news/500269.html

相关文章:

  • C#中的模拟服务器与客户端建立连接
  • 【深度学习】利用Java DL4J 构建和训练医疗影像分析模型
  • application.yml 和 bootstrap.yml
  • 使用uniapp开发小程序场景:在百度地图上调用接口返回的设备相关信息并展示
  • ubuntu22.04 使用可以用的镜像源获取你要的镜像
  • Flume——sink连接hdfs的参数配置(属性参数+时间参数)
  • python+docker实现分布式存储的demo
  • go-blueprint create exit status 1
  • 如何更改Git用户名 - 本地与全局设置指南
  • Node.js JWT认证教程
  • 【青牛科技】应用于音频信号处理系统的D258 是由两个独立的高增益运算放大器组成
  • HTML Input 文件上传功能全解析:从基础到优化
  • 小程序 —— Day1
  • 4.5 TCP 报文段的首部格式
  • SQL 获取今天的当月开始结束范围:
  • Qt复习学习
  • Leetcode经典题5--轮转数组
  • C++的一些经典算法
  • Windows环境中Python脚本开机自启动及其监控自启动
  • XML 语言随笔
  • E卷-分割数组的最大差值
  • 基于SpringBoot校园台球厅人员与设备管理系统设计与实现
  • 异步FIFO的实现
  • 关于找工作的一些感悟
  • docker 相关问题记录
  • Devops 实践
  • MySQL 索引(B+树)详解
  • 医疗系统国产数据库高质量发展路径探析
  • 微信小程序报错:http://159.75.169.224:7300不在以下 request 合法域名列表中,请参考文档
  • 智能租赁管理系统助力规范化住房租赁市场提升用户体验