当前位置: 首页 > news >正文

使用Ollama本地部署DeepSeek、GPT等大模型

本地部署大模型最简单的一种方案 - 使用ollama

一:什么是Ollama

Ollama 是一个用于本地运行大型语言模型(LLM)的开源工具或平台,主要用于让用户在自己的设备上(尤其是个人电脑)方便地加载和运行类似 ChatGPT、LLaMA、Mistral、Gemma 等语言模型。

  • Ollama 提供了一套工具和命令行接口,使你可以像使用 Docker 一样简单地拉取、运行、管理本地语言模型。

  • 它支持 Apple Silicon (M1/M2)LinuxWindows(WSL)

  • 可运行的模型包括 Meta 的 LLaMA、Mistral、Gemma、Phi 等等。

官网地址:Ollama

二:安装使用

2.1:安装

直接点击Download下载对应的安装包

我使用的是macOS

安装成功后会多一个羊驼标识的应用,

2.2:打开终端

ollama -- help

查看支持的命令:

三:部署模型

3.1:选择模型

在ollama官网点击左上角Models可以看到Ollama支持的模型列表,类似于Docker的镜像列表

可以看到它是安装下载热度排列的,我们现在要部署deepseek,所以选择deepseek-r1;

点击进入可以看到很多版本:

deepseek-r1:1.5b7b14b70b 等这些后缀中的 **b**,指的是模型的参数规模(参数数量),单位是 “billion(十亿)”。这是衡量一个大型语言模型规模的重要指标之一。

更多参数  通常代表模型更复杂,理解能力更强,生成内容更自然,但也更大更慢。

模型

参数量特点与适用场景
1.5b15亿超轻量,适合边缘设备、快速测试
7b70亿平衡性能与资源消耗,适合日常用
14b~32b中型模型需要更多内存和显存,推理效果更好
70b+大型模型非常强大,需高端 GPU(如 A100)、适合研究和高端生成任务
671b巨型模型多用于研究机构,极高的计算需求

3.2:复制命令

选择自己需要且合适的版本点击,然后复制命令:

3.3:终端执行

第一次执行会去下载镜像,下载成功后会运行,然后打开一个控制台:

四:使用大模型

4.1:终端对话

这个控制的就是我们平常使用的会话平台,可以和它聊天了,例子:

4.2:使用ollama对话

打开ollama,可以选择安装好的终端,可以看到deepseek-r1:1.5b已经下载安装好了,当然上面安装的操作也可以通过ollama界面进行操作:

同理可以安装上面的方式本地部署Models列表里的其他大模型

http://www.lryc.cn/news/613327.html

相关文章:

  • 13-netty基础-手写rpc-消费方生成代理-05
  • 车辆特征与车牌识别准确率↑29%:陌讯多模态融合算法实战解析
  • [spring-cloud: 动态刷新]-源码分析
  • 基于MATLAB实现支持向量机(SVM)分类
  • android 之 Kotlin中Handler的使用
  • 栅栏密码的加密解密原理
  • zookeeper因jute.maxbuffer启动异常问题排查处理
  • 使用 decimal 包解决 go float 浮点数运算失真
  • 可执行文件的生成与加载执行
  • Linux的进程间通信
  • 嵌入式学习硬件(一)ARM体系架构
  • 简单手写Transformer:原理与代码详解
  • Java中的反射机制
  • 土壤盐分传感器与土壤电导率传感器直接的关系
  • 深入理解String类:揭秘Java字符串常量池的优化机制
  • 【2025最新版】火狐浏览器(官方版)安装-附教程
  • 飞算JavaAI深度解析:Java开发者的智能革命
  • AUTOSAR进阶图解==>AUTOSAR_EXP_BSWDistributionGuide
  • 损耗对信号质量的影响
  • Java 八大经典排序算法全解析
  • 数组指针-函数指针-回调函数
  • 人工智能——自动微分
  • Docker容器部署harbor-小白级教学
  • Dlib库是什么?白话,详细介绍版
  • python中用xlrd、xlwt读取和写入Excel中的日期值
  • GIT操作卡顿
  • 机器学习核心算法与实践要素(全篇)
  • java excel转图片常用的几种方法
  • 玳瑁的嵌入式日记D14-0807(C语言)
  • NVIDIA/k8s-device-plugin仓库中GPU无法识别问题的issues分析报告