当前位置: 首页 > news >正文

linux下非Docker模式部署Xinference并部署Rerank模型

背景:

记上一篇windows环境部署Xinference后尝试在linux下部署,该环境没有GPU,只有CPU。

材料:

1、运行命令 :conda create -n transform_env python=3.10.18 创建基础环境并制定Python版本。

2、运行命令:conda activate transform_env 激活Xinference环境 

3、运行命令:conda env list 查看已创建的虚拟环境,其中带“*”的为当前激活环境                     

制作:

1、pip install xinference[all]=1.7.0.post1 进行 xinference 的安装。 

2、pip show xinference 查看版本

(/conda/transform_env) [root@MY59-160 ~]# pip show xinference
Name: xinference
Version: 1.7.0.post1
Summary: Model Serving Made Easy
Home-page: https://github.com/xorbitsai/inference
Author: Qin Xuye
Author-email: qinxuye@xprobe.io
License: Apache License 2.0
Location: /conda/transform_env/lib/python3.10/site-packages
Requires: aioprometheus, async-timeout, click, fastapi, gradio, huggingface-hub, modelscope, nvidia-ml-py, openai, passlib, peft, pillow, pydantic, pynv
ml, python-jose, requests, setproctitle, sse_starlette, tabulate, timm, torch, tqdm, typing_extensions, uvicorn, xoscar
Required-by: 

3、启动xinference(直接启动)

XINFERENCE_MODEL_SRC=modelscope XINFERENCE_HOME='/xinference_model/' xinference-local --host 0.0.0.0 --port 9997

解释:1、 XINFERENCE_MODEL_SRC=modelscope 表示模型下载地址为modelscope(阿里)

2、 XINFERENCE_HOME='/xinference_model/' 表示下载的模型在本地的存储路径,如/xinference_model/

4、启动xinference(nohup后台启动)

XINFERENCE_MODEL_SRC=modelscope XINFERENCE_HOME='/xinference_model/' nohup xinference-local --host 0.0.0.0 --port 9997 &> nohup.out &

5、启动完成,浏览器访问即可。

注意事项:

模型无法下载

# 配置模型下载仓库。默认下载源是 “huggingface”,也可以设置为 “modelscope” 作为下载源

 XINFERENCE_MODEL_SRC=modelscope (国内),huggingface很大概率拉不到,还有通过页面下载包选择镜像地址并不生效

 

http://www.lryc.cn/news/607244.html

相关文章:

  • 最新docker国内镜像源地址大全
  • DreamBoards 借助 DreamHAT+ 雷达插件为 Raspberry Pi 提供 60GHz 毫米波雷达
  • 基于STM32+FPGA工业打印机运动控制卡的核心解决方案
  • Spring Boot微服务性能优化实践指南:从配置到监控
  • MT Photos图库部署详解:Docker搭建+贝锐蒲公英异地组网远程访问
  • 无人机模式的切换
  • PendingIntent相关流程解析
  • 我的博客系统测试报告
  • PHP转Java笔记
  • 前端图片懒加载的深度指南:从理论到实战
  • 浏览器环境segmentit实现中文分词
  • windows内核研究(软件调试-调试事件采集)
  • 性能测试-性能测试中的经典面试题一
  • Nginx跨域问题与 MIME 类型错误深度排错指南:解决 MIME type of “application/octet-stream“ 报错
  • CAN通信协议
  • 从零到英雄:掌握神经网络的完整指南
  • 大模型开发框架LangChain之构建知识库
  • YOLOv8/YOLOv11 C++ OpenCV DNN推理
  • 深入浅出理解WaitForSingleObject:Windows同步编程核心函数详解
  • 大模型幻觉的本质:深度=逻辑层次,宽度=组合限制,深度为n的神经网络最多只能处理n层逻辑推理,宽度为w的网络无法区分超过w+1个复杂对象的组合
  • 前沿智能推荐算法:基于多模态图神经网络的隐私保护推荐系统
  • JS字符串匹配,检测字符中是否包含ABC,includes,indexOf
  • 网络配置+初始服务器配置
  • C++ AI 实用案例强化学习
  • UE5多人MOBA+GAS 番外篇:同时造成多种类型伤害,以各种属性值的百分比来应用伤害(版本二)
  • MySQL常见的聚合函数:
  • 逻辑回归----银行贷款模型优化
  • 【C++/STL】vector基本介绍
  • git pull和git fetch的区别
  • Linux---编辑器vim