当前位置: 首页 > news >正文

【DeepSeek】Mac m1电脑部署DeepSeek

一、电脑配置

个人电脑配置
在这里插入图片描述

二、安装ollama

简介:Ollama 是一个强大的开源框架,是一个为本地运行大型语言模型而设计的工具,它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型。
在ollama官网,根据自己电脑的类型选择对应的下载安装程序,比如我这里选择 macos:
在这里插入图片描述
下载成功后,直接安装。
如何判断是否安装成功?
打开一个命令行终端,输入命令:ollama -v,显示版本信息,表示安装成功。
在这里插入图片描述

三、选择合适的模型

点击ollama–>models选项,可以查看支持运行的模型。
在这里插入图片描述
deepseek r1 有多种参数,通常我们macos 选择7b,8b参数即可,参数越大对显卡和内存要求越高,如果你是3090显卡,4090 显卡,可以选择32b,70b,参数越大,效果越好。当然磁盘占用也越大。

选择对应的蒸馏模型,按照下面的命令复制到ollama控制台

DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5bDeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7bDeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8bDeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14bDeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32bDeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b

四、安装并运行

安装并运行对应的蒸馏模型,命令行执行:
ollama run deepseek-r1:8b

安装成功后,在控制台直接输入问题,即可得到回复:
在这里插入图片描述
命令行如何退出大模型对话?
输入:/bye

http://www.lryc.cn/news/540170.html

相关文章:

  • Spring AI + Ollama 实现调用DeepSeek-R1模型API
  • 如何在本地和服务器新建Redis用户和密码
  • jmeter接口测试(一)
  • Java-11
  • js中常用方法整理
  • umi react+antd 判断渲染消息提示、input搜索、多选按钮组
  • Day15-后端Web实战-登录认证——会话技术JWT令牌过滤器拦截器
  • 【嵌入式常用工具】Srecord使用
  • SwiftUI基础组件之HStack、VStack、ZStack详解
  • 第2章 深入理解Thread构造函数
  • PLC扫描周期和工作原理
  • 玩转Docker | 使用Docker部署本地自托管reference速查表工具
  • MySQL数据库入门到大蛇尚硅谷宋红康老师笔记 高级篇 part 2
  • 跟着 Lua 5.1 官方参考文档学习 Lua (3)
  • ORM框架详解:为什么不直接写SQL?
  • 【Server Components 解析:Next.js 的未来组件模型】
  • 2025最新智能优化算法:改进型雪雁算法(Improved Snow Geese Algorithm, ISGA)求解23个经典函数测试集,MATLAB
  • 基于spring boot物流管理系统设计与实现(代码+数据库+LW)
  • HTTP 和RESTful API 基础,答疑
  • 【数据挖掘】深度挖掘
  • OpenGL(2)基于Qt做OpenGL开发
  • 使用JWT实现微服务鉴权
  • 高并发内存池项目介绍
  • PHP会务会议系统小程序源码
  • Java中的常用类 --String
  • PWM(脉宽调制)技术详解:从基础到应用实践示例
  • Hutool - DB 连接池配置集成
  • 激光工控机在自动化生产线中有什么关键作用?
  • Visual Studio Code的下载安装与汉化
  • nlp|微调大语言模型初探索(3),qlora微调deepseek记录