当前位置: 首页 > article >正文

大语言模型值ollama使用(1)

ollama为本地调用大语言模型提供了便捷的方式。下面列举如何在windows系统中快捷调用ollama。

win+R打开运行框,输入cmd

1、输入ollama list

显示已下载模型

 2、输入ollama pull  llama3

下载llama3模型

3、 输入 ollama run llama3

运行模型

4、其他

ollama list 显示已下载的模型

ollama show llama3 展示模型信息

ollama rm llama3 删除模型

5、设置模型地址

setx OLLAMA_MODELS "D:\自定义路径\ollama-models"

http://www.lryc.cn/news/2395088.html

相关文章:

  • 大模型应用开发之Langchain
  • thc-ssl-dos:SSL 压力测试的轻量级工具!全参数详细教程!Kali Linux教程!
  • 什么是内网ip证书
  • 【速通RAG实战:进阶】17、AI视频打点全攻略:从技术实现到媒体工作流提效的实战指南
  • 立控信息智能装备柜:科技赋能军队装备管理现代化
  • 【freertos-kernel】queue(发送)
  • 【华为云物联网】如何实现在 MQTT.fx 上模拟数据间隔上传一次,并按设定系数变动数据
  • 破解高原运维难题:分布式光伏智能监控系统的应用研究
  • 图标变白,开始菜单栏无法打开程序(以jupyter为例)
  • 大语言模型(LLM)入门 - (1) 相关概念
  • 行为型:访问者模式
  • C++数据结构 : 哈希表的实现
  • 抖音电商客户端一面面经
  • JavaScript 在 AcroForm 中的广泛应用
  • Socket编程之TCP套件字
  • AD9268、AD9643调试过程中遇到的问题
  • Java-File类基本方法使用指南
  • Python爬虫实战:研究PyQuery库相关技术
  • 第九篇:MySQL 安全加固与访问控制策略实战
  • 神经网络-Day40
  • WindowServer2022下docker方式安装dify步骤
  • Java五种方法批量处理List元素全解
  • springboot文件上传下载
  • webpack CDN打包优化
  • ARM内核一览
  • Rust 和 Python 如何混合使用
  • 台式电脑CPU天梯图_2025年台式电脑CPU天梯图
  • 2025年渗透测试面试题总结-匿名[校招]安全服务工程师(题目+回答)
  • Deseq2:MAG相对丰度差异检验
  • CTFHub-RCE 命令注入-过滤目录分隔符