当前位置: 首页 > news >正文

AI-Gateway:一款整合了OpenAI、Anthropic、LLama2等大语言模型的统一API接口

关于AI-Gateway

AI-Gateway是一款针对大语言模型的统一API接口,该接口可以用在应用程序和托管的大语言模型(LLM)之间,该工具可以允许我们通过一个统一的API接口将API请求转发给OpenAI、Anthropic、Mistral、LLama2、Anyscale、Google Gemini等大语言模型。

功能特性

1、功能非常快,体积非常小;

2、跨多模型和提供商实现负载均衡;

3、支持回退以确保应用程序保持弹性;

4、默认配置下,支持自动重试;

5、可根据需要安装中间件;

6、支持多种大语言模型;

支持的SDK

编程语言

支持的SDK

Node.js / JS / TS

Portkey SDK
OpenAI SDK
LangchainJS
LlamaIndex.TS

Python

Portkey SDK
OpenAI SDK
Langchain
LlamaIndex

Go

go-openai

Java

openai-java

Rust

async-openai

Ruby

ruby-openai

工具安装&部署

本地部署

如果你熟悉Node.js和npx的话,可以直接在本地安装和部署你自己的AI-Gateway:

npx @portkey-ai/gateway

安装完成后,就可以打开浏览器并访问下列地址使用AI-Gateway了:

http://localhost:8787

Cloudflare Worker部署

使用下列命令将该项目源码克隆至本地:

git clone https://github.com/portkey-ai/gateway

然后安装NPM依赖:

cd gatewaynpm i

使用wrangler部署即可:

npm run deploy

Node.js部署

使用下列命令将该项目源码克隆至本地:

git clone https://github.com/portkey-ai/gateway

然后安装NPM依赖:

cd gatewaynpm inpm run build

然后运行Node服务器:

node build/start-server.js

Docker部署

广大研究人员也可以直接使用Docker来运行AI-Gateway:

docker run -d -p 8787:8787 portkeyai/gateway:latest

Docker-Compose部署

使用下列命令下载Compose文件:

wget "https://raw.githubusercontent.com/Portkey-AI/gateway/main/docker-compose.yaml"

然后运行Docker-Compose即可:

docker compose up -d

服务当前会运行并监听8787端口。

AI-Gateway配置

AI-Gateway支持通过自定义配置来实现多功能路由策略,例如回退、负载均衡和自动重连等。

我们可以通过x-portkey-config Header在调用OpenAI时应用下列配置信息:

// 使用OpenAI JS SDK时const client = new OpenAI({baseURL: "http://127.0.0.1:8787", // The gateway URLdefaultHeaders: {'x-portkey-config': {.. your config here ..},}});

下面给出的样例配置会在回退至Gemini Pro之前尝试向OpenAI发送5次请求:

{"retry": { "count": 5 },"strategy": { "mode": "fallback" },"targets": [{"provider": "openai","api_key": "sk-***"},{"provider": "google","api_key": "gt5***","override_params": {"model": "gemini-pro"}}]}

下面的配置将启动负载均衡功能:

{"strategy": { "mode": "loadbalance" },"targets": [{"provider": "openai","api_key": "sk-***","weight": "0.5"},{"provider": "openai","api_key": "sk-***","weight": "0.5"}]}

工具使用

下面的例子中,我们将通过AI-Gateway尝试向OpenAI发送一个Chat completions调用:

curl '127.0.0.1:8787/v1/chat/completions' \-H 'x-portkey-provider: openai' \-H "Authorization: Bearer $OPENAI_KEY" \-H 'Content-Type: application/json' \-d '{"messages": [{"role": "user","content": "Say this is test."}], "max_tokens": 20, "model": "gpt-4"}'

许可证协议

本项目的开发与发布遵循MIT开源许可证协议。

项目地址

AI-Gateway:【GitHub传送门】

参考资料

AI Gateway - Simplify Your LLM Integrations | Portkey

https://hub.docker.com/r/portkeyai/gateway

http://www.lryc.cn/news/304803.html

相关文章:

  • Android 广播的基本概念
  • 【Docker实操】部署php项目
  • 多线程-初阶
  • Object和Function是函数,函数都有一个prototype属性
  • stm32利用CubeMX按键控制数码管加减数
  • 前端页面生成条形码,借助layui打印标签
  • 第1~8章 综合复习
  • 转运机器人,AGV底盘小车:打造高效、精准的汽车电子生产线
  • Spring Boot 的参数校验方案
  • 第N3周:Pytorch文本分类入门
  • 宝塔面板安装了mysql5.7和phpMyadmin,但是访问phpMyadmin时提示502 Bad Gateway
  • K8S—Pod详解
  • 深度学习中数据的转换
  • 如何系统地自学 Python?
  • 【软考】传输层协议之UDP
  • 微服务-微服务链路追踪组件Skywalking实战
  • Stream、Collections、Collectors用法
  • Jetson Xavier NX 与笔记本网线连接 ,网络共享,ssh连接到vscode
  • 利用netty手写rpc框架
  • js+views 压缩上传的图片
  • 【安卓基础5】中级控件
  • Arthas—【学习篇】
  • css pointer-events 多层鼠标点击事件
  • k8s中基于alpine的pod无法解析域名问题
  • 缩小ppt文件大小的办法
  • vue3中使用 tui-image-editor进行图片处理,并上传
  • 18.贪心算法
  • [AI]部署安装有道QanyThing
  • NLP_BERT与GPT争锋
  • 放一个还看得过去的后台模板设置模块css样式框架