当前位置: 首页 > news >正文

支持DeepSeek_Qwen等大模型!字狐Chatbox在线模型+本地部署模型

前言

字狐Chatbox是一款功能强大的 AI 聊天客户端,用户可以在一个平台上轻松切换使用各种主流大模型,例如:DeepSeek、Qwen等

不论是联网使用云端模型还是无网络使用离线模型,都能在字狐Chatbox流畅体验

写这篇文章的目的在于体验字狐Chatbox提供的两种使用方式——在线模型本地部署模型

平台概览与支持模型

  • 字狐Chatbox仅支持运行在Windows端

  • 官网页面👇

  • 字狐Chatbox支持的模型类型丰富

  • 支持在线模型本地部署模型

  • 支持国内众多主流模型例如DeepSeek、Qwen

安装体验

安装

体验链接:https://file-cdn-chatbox.fanqiesoft.cn/chatbox/ZhiHuChatBox_28431_st.exe
下载后安装

  • 请添加图片描述
  • 请添加图片描述

安装后进入页面

  • 在这里插入图片描述

云端模型体验

左边有本地模型在线模型两个模式

右边有各种云端大模型DeepSeek R1、清华智谱Plus、DeepSeek V3、阿里通义千问Plus
在这里插入图片描述

当然以上的所有在线模型需要登陆使用“ai能量”才能使用、新用户登陆后会送【100】个ai能量

本地模型体验

字狐Chatbox支持两种本地部署方式

第一种:使用字狐Chatbox官方工具本地一键部署

模型下载安装好后需要将字狐Chatbox客户端进行重启否则可能无法识别到模型
在这里插入图片描述
在①处:选择你所需的本地模型类型
在②出:查看你自己电脑的配置
在③处:结合自己的配置选择一个适合你自己的模型版本
在这里插入图片描述

第二种:使用Ollama本地部署连接至字狐Chatbox

步骤一:安装Ollama

Ollama是一个用于本地运行大语言模型的开源工具,支持多种模型,包括DeepSeek - R1等。以下是不同操作系统下的安装方法:
Windows系统:访问Ollama官网(https://ollama.com),下载Windows版本的安装程序(ollama - windows.msi)。双击安装程序,按照提示完成安装。

在这里插入图片描述

安装完成后,打开命令提示符(cmd)或PowerShell,输入 ollama --version,如果正确显示版本号,则安装成功。

在这里插入图片描述
安装完成后可以直接在cmd中向模型提问
在这里插入图片描述


步骤二:选择DeepSeek模型

进入Ollama官网,点击【Models】,找到DeepSeek - R1,并选择合适的参数版本。DeepSeek有多种不同参数规模的模型可供选择,你可以根据自己的硬件配置和实际需求进行挑选:

模型参数硬件要求适用场景
1.5BCPU最低4核(推荐Intel/AMD多核处理器),内存8GB + ,硬盘3GB + 存储空间(模型文件约1.5 - 2GB),显卡非必需(纯CPU推理),若GPU加速可选4GB + 显存(如GTX 1650)入门级模型,适合个人设备
7BCPU 8核以上(推荐现代多核CPU),内存16GB + ,硬盘8GB + (模型文件约4 - 5GB),显卡推荐8GB + 显存(如RTX 3070/4060)性能均衡,适合本地开发使用
8B硬件需求与7B相近,略高10 - 20%性能优于7B,实现更高精度的轻量级任务
14BCPU 12核以上,内存32GB + ,硬盘15GB + ,显卡16GB + 显存(如RTX 4090或A5000)强劲性能,可完成企业级复杂任务
32BCPU 16核以上(如AMD Ryzen 9或Intel i9),内存64GB + ,硬盘30GB + ,显卡24GB + 显存(如A100 40GB或双卡RTX 3090)高精度专业领域任务,建议多卡部署
70BCPU 32核以上(服务器级CPU),内存128GB + ,硬盘70GB + ,显卡多卡并行(如2x A100 80GB或4x RTX 4090)适合科研机构/大型企业,实现高复杂度生成任务
671BCPU 64核以上(服务器集群),内存512GB + ,硬盘300GB + ,显卡多节点分布式训练(如8x A100/H100)顶级性能,适合国家级/超大规模AI研究

大家最好用匹配的硬件配置进行部署,否则会影响到后续使用过程中DeepSeek的响应速度,再重新部署又得重新操作一遍。
在这里插入图片描述


步骤三:安装DeepSeek模型

复制并下载命令:ollama run 模型名 例如:

ollama run deepseek-r1:1.5b

这里和下面的操作,我们选择的是DeepSeek-R1 1.5B模型,大家注意根据自己选择的模型修改命令。

打开CMD(命令行),按 Win + R,输入“cmd”,回车。
粘贴刚刚复制的命令,回车执行。模型开始下载,时间取决于网速和显存。
在这里插入图片描述

回到字狐Chatbox

模型下载安装好后需要将字狐Chatbox客户端进行重启否则可能无法识别到模型,在主页中找到本地模型设置

在这里插入图片描述
然后在模型中选择刚才下载好的模型后确认
在这里插入图片描述
我们回到模型本地部署页面,可以看到右边的模型中有开始对话的字样,点击即可开始使用

在这里插入图片描述
在这里插入图片描述

测试题

在这里插入图片描述
原题:

鸡兔同笼,共35只头,94只脚,问鸡兔各多少?

DeepSeek-R1在线模型回答:

鸡兔同笼问题可以通过以下步骤解决:解法步骤(假设法)  假设全是鸡  35个头 → 35只鸡  
鸡脚总数:35 × 2 = 70只脚  
实际脚数94只 → 少算了:94 - 70 = 24只脚替换为兔子  每换1只兔(比鸡多2只脚),脚数增加:4 - 2 = 2只  
需替换兔子数:24 ÷ 2 = 12只结果  兔:12只  
鸡:35 - 12 = 23只验证答案  兔脚:12 × 4 = 48只  
鸡脚:23 × 2 = 46只  
总脚数:48 + 46 = 94只(符合题目条件)最终答案🐔 鸡23只,🐇 兔12只。鸡兔同笼问题解法:35头94脚求数量

DeepSeek-r1:1.5b


根据题目,设鸡的数量为 ( x ) 只,兔子的数量为 ( y ) 只,则:根据头数:( x + y = 35 )
根据脚数:( 2x + 4y = 94 )解方程组:从第一个方程得:( x = 35 - y )
代入第二个方程:( 2(35 - y) + 4y = 94 )( 70 - 2y + 4y = 94 )( 70 + 2y = 94 )( 2y = 24 )( y = 12 )鸡的数量:( x = 35 - 12 = 23 )
答案:鸡有23只,兔子有12只。

结语

不管是写文案、编代码还是总结资料,字狐Chatbox都能帮你解决问题。
字狐Chatbox对于我个人来说,它最有趣的地方就是它能够把“本地模型”和”在线模型“两种模式完美融合在一起
总的来说,字狐Chatbox的确是一款很“强”的AI工具:

  • 想要快速体验国内主流大模型?——它内置了DeepSeek、通义千问、清华智谱等多个高质量模型,不用折腾API,开箱即用
  • 想要自己玩本地部署、享受离线的自由?——无论是一键部署还是Ollama手动链接,它都给你留好了入口

体验入口(单击即可跳转下载):https://file-cdn-chatbox.fanqiesoft.cn/chatbox/ZhiHuChatBox_28431_st.exe

http://www.lryc.cn/news/612764.html

相关文章:

  • 如何封锁品类?提升垂类竞争力
  • leetcode 674.最长连续递增序列
  • 菜鸟笔记007 [...c(e), ...d(i)]数组的新用法
  • 解决 npm i sharp@0.23.4 安装失败异常 npm install sharp异常解决
  • dmctlcvt工具介绍数据文件路径变化后如何拉起数据库
  • 范数的定义、分类与 MATLAB 应用实践
  • agno fastapi对外接口案例
  • 北京JAVA基础面试30天打卡04
  • Node.js特训专栏-实战进阶:21.Nginx反向代理配置
  • 使用Spring Boot + Angular构建安全的登录注册系统
  • 剧本杀小程序系统开发:推动社交娱乐产业创新发展
  • GitCode 7月:小程序积分商城更名成长中心、「探索智能仓颉!Cangjie Magic 体验有奖征文活动」圆满收官、深度对话栏目持续热播
  • qt系统--事件
  • OpenAI推出开源GPT-oss-120b与GPT-oss-20b突破性大模型,支持商用与灵活部署!
  • Numpy科学计算与数据分析:Numpy数组操作入门:合并、分割与重塑
  • 水库大坝安全监测系统主要概述
  • Python 数据类型及数据类型转换
  • Python Socket 脚本深度解析与开发指南
  • 目标检测数据集 - 自动驾驶场景道路异常检测数据集下载「包含VOC、COCO、YOLO三种格式」
  • Jenkins全链路教程——Jenkins用户权限矩阵配置
  • 东莞立晟精密硅胶科技有限公司将携重磅产品亮相 AUTO TECH China 2025 广州国际汽车技术展
  • oracle 11G安装大概率遇到问题
  • 计算机网络:固定网络位长度子网划分flsm和可变长子网掩码划分vlsm的区别
  • QT项目 -仿QQ音乐的音乐播放器(第五节)
  • 全局异常处理器
  • [特殊字符] 未来图钉式 AI 时代的智能生态布局:副脑矩阵与人机共振的系统构想
  • Linux->信号
  • 如何在 VS Code 中进行 `cherry-pick`
  • 计算机毕业设计java疫情防控形势下的高校食堂订餐管理系统 高校食堂订餐管理系统在疫情防控背景下的设计与实现 疫情防控期间高校食堂线上订餐管理平台
  • 【已解决】-bash: mvn: command not found