当前位置: 首页 > news >正文

LocalAI: OpenAI、Claude 等的开源替代

GitHub:https://github.com/mudler/LocalAI

更多AI开源软件:发现分享好用的AI工具、AI开源软件、AI模型、AI变现 - 小众AI

LocalAI是免费的开源 OpenAI 替代品。LocalAI 充当与 OpenAI 兼容的直接替代 REST API(Elevenlabs、Anthropic...本地 AI 推理的 API 规范。它允许您使用消费级硬件在本地或本地运行 LLM、生成图像、音频(不仅如此),支持多个型号系列。不需要 GPU。

主要功能

1. 模型兼容性

LocalAI支持多种主流的模型架构:

  • GGUF格式模型
  • Transformers模型
  • Diffusers模型
  • 其他开源AI模型
全面的AI能力
  • 文本生成:支持各类GPT模型,可进行对话、写作等任务
  • 文本转语音:将文字转换为自然的语音输出
  • 语音转文本:基于whisper.cpp实现高质量语音识别
  • 图像生成:支持Stable Diffusion等AI绘画模型
  • OpenAI兼容API:提供与OpenAI API完全兼容的接口
  • 向量嵌入:支持文本向量化,可用于向量数据库
  • 视觉识别:支持图像识别和理解
  • 重排序API:优化搜索结果排序
  • 语音活动检测:集成Silero-VAD
  • 内置WebUI界面:提供友好的可视化操作界面

💻 安装和使用

运行安装程序脚本:

# Basic installation
curl https://localai.io/install.sh | sh

有关更多安装选项,请参阅安装程序选项。

或使用 docker 运行:

仅 CPU 镜像:
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest
NVIDIA GPU 镜像:
# CUDA 12.0
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12# CUDA 11.7
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-11# NVIDIA Jetson (L4T) ARM64
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-nvidia-l4t-arm64
AMD GPU 镜像 (ROCm):
docker run -ti --name local-ai -p 8080:8080 --device=/dev/kfd --device=/dev/dri --group-add=video localai/localai:latest-gpu-hipblas
Intel GPU 镜像 (oneAPI):
# Intel GPU with FP16 support
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-gpu-intel-f16# Intel GPU with FP32 support
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-gpu-intel-f32
Vulkan GPU 镜像:
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-gpu-vulkan
AIO 镜像(预下载型号):
# CPU version
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-aio-cpu# NVIDIA CUDA 12 version
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-aio-gpu-nvidia-cuda-12# NVIDIA CUDA 11 version
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-aio-gpu-nvidia-cuda-11# Intel GPU version
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-aio-gpu-intel-f16# AMD GPU version
docker run -ti --name local-ai -p 8080:8080 --device=/dev/kfd --device=/dev/dri --group-add=video localai/localai:latest-aio-gpu-hipblas

关于 AIO 镜像和预下载模型的更多信息,请参见 容器文档。

要加载模型:

# From the model gallery (see available models with `local-ai models list`, in the WebUI from the model tab, or visiting https://models.localai.io)
local-ai run llama-3.2-1b-instruct:q4_k_m
# Start LocalAI with the phi-2 model directly from huggingface
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# Install and run a model from the Ollama OCI registry
local-ai run ollama://gemma:2b
# Run a model from a configuration file
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
# Install and run a model from a standard OCI registry (e.g., Docker Hub)
local-ai run oci://localai/phi-2:latest
http://www.lryc.cn/news/573788.html

相关文章:

  • 3、NLP黄金九步法(问题定义-数据获取-数据探索)
  • Flink Connector Kafka深度剖析与进阶实践指南
  • js 函数参数赋值问题
  • 【Android】am命令
  • ROS 2 中 Astra Pro 相机与 YOLOv5 检测功能编译启动全记录
  • Oracle 数据库查询:单表查询
  • 华为云Flexus+DeepSeek征文|开启DeepSeek-V3+R1商用服务之旅
  • 查询消耗 IO 多的 SQL -达梦
  • C++法则1:在 C++ 中,所有的具名变量都是左值,即使它们的类型是右值引用。
  • 云原生/容器相关概念记录
  • 第八章 网络安全
  • 基于Vue.js的图书管理系统前端界面设计
  • 包教包会,ES6类class的基本入门
  • TS类型啊啊啊2
  • 计算机系统结构课堂测验
  • Claude:Anthropic打造的安全优先AI助手
  • 2025中科院2区SCI-状态优化算法Status-based Optimization-附Matlab免费代码
  • 基于split-Bregman算法的L1正则化matlab仿真,对比GRSR算法
  • 《情感反诈模拟器》2025学习版
  • 【Redis】解码Redis中hash类型:理解基础命令,以及内部编码方式和使用场景
  • Docker Desktop 4.42集成的MCP工具包
  • 安卓对外发布工程源码:怎么做到仅UI层公布
  • linux-vim编辑器
  • Perplexity AI:对话式搜索引擎的革新者与未来认知操作系统
  • 课程专注度分析系统文档
  • DNS:互联网世界的隐形电话簿——深入解析域名解析系统
  • rust单体web项目模板搭建
  • json格式化、验证、压缩和转换json数据
  • C++ 第二阶段:类与对象 - 第三节:成员函数与访问权限
  • 理解贝叶斯分析中的“模型比较”部分