当前位置: 首页 > news >正文

OpenAI项目爆改GLM——以基于llama_index的pdf阅读助手

最近在做大模型agent构建,看了许多不错的开源项目,但是clone下来就是一整个不能用,因为github上开源的项目基本都是基于openai做的。而如果想要转成国内大模型backbone,需要修改的地方挺多的。

现在以一个简单的pdf reader agent为例来做一下相关的解读

原始项目地址:GitHub - gabacode/chatPDF: Load a PDF file and ask questions via llama_index and GPT

代码写的非常简单:

import logginglogging.basicConfig(level=logging.CRITICAL)import os
from pathlib import Pathimport openai
from dotenv import load_dotenv
from langchain.chat_models import ChatOpenAI
from llama_index import GPTVectorStoreIndex, LLMPredictor, ServiceContext, StorageContext, download_loader, load_index_from_storage
from utils import CACHE, FILES, models, cls, handle_save, handle_exit, initialize, select_fileload_dotenv()
#openai.api_key = os.environ["OPENAI_API_KEY"]
history = []llm_predictor = LLMPredictor(llm=ChatOpenAI(temperature=0.618, model_name=models["gpt-3"], max_tokens=256))service_context = ServiceContext.from_defaults(llm_predictor=llm_predictor, chunk_size_limit=1024)def make_index(file):cls()print("👀 Loading...")PDFReader = download_loader("PDFReader")loader = PDFReader()documents = loader.load_data(file=Path(FILES) / file)if os.path.exists(Path(CACHE) / file):print("📚 Index found in cache")returnelse:print("📚 Index not found in cache, creating it...")index = GPTVectorStoreIndex.from_documents(documents, service_context=service_context)index.storage_context.persist(persist_dir=Path(CACHE) / file)def chat(file_name, index):while True:prompt = input("\n😎 Prompt: ")if prompt == "exit":handle_exit()elif prompt == "save":handle_save(str(file_name), history)query_engine = index.as_query_engine(response_mode="compact")response = query_engine.query(prompt)print("\n👻 Response: " + str(response))history.append({"user": prompt, "response": str(response)})def ask(file_name):try:print("👀 Loading...")storage_context = StorageContext.from_defaults(persist_dir=Path(CACHE) / file_name)index = load_index_from_storage(storage_context, service_context=service_context)cls()print("✅ Ready! Let's start the conversation")print("ℹ️ Press Ctrl+C to exit")chat(file_name, index)except KeyboardInterrupt:handle_exit()if __name__ == "__main__":initialize()file = select_file()if file:file_name = Path(file).namemake_index(file_name)ask(file_name)else:print("No files found")handle_exit()

假设你的环境已经配置好了,即通过以下代码进入

python main.py

现在进行更改,首先是llm predictor,这个构建直接是chatopenai的配置,我们可以做如下更改

#原始代码
#llm_predictor = LLMPredictor(llm=ChatOpenAI(temperature=0.618, model_name=models["gpt-3"], max_tokens=256))#替换为如下
llm = ChatOpenAI(temperature=0.95,model="glm-4",openai_api_key="你的key",#这个是glm的调用地址openai_api_base="https://open.bigmodel.cn/api/paas/v4/"
)llm_predictor = LLMPredictor(llm)

运行后,可以继续运行,但是到选择pdf后会报错,大致错误意思是try超过范围,调试后发现应该是调用的向量模型网络不通。安装的是llama_index内置的embedding模型是调用openai,进行更改

#需要修改的包文件路径如下(假设你是anaconda)
#/opt/anaconda3/envs/chatpdf/lib/python3.9/site-packages/llama_index/embeddings/openai.py#需要修改的是get_embeddings()和get_embedding()
#get_embeddings()是批量查询返回向量
#get_embedding()是单独的查询返回向量# def get_embeddings():
# ... 
#     data = openai.Embedding.create(input=list_of_text, model=engine, **kwargs).data 这是原始调用,是openai的
# ...#更改为如下,当然你需要注意你的缩紧
#!pip install zhipuaifrom zhipuai import ZhipuAIclient = ZhipuAI(api_key="你的glm key")
data = client.embeddings.create(input=list_of_text, model = "embedding-2").data#get_embeddings()也需要做同样的修改

现在测试一下,可能会跳出因为禁用词不能进行正常对话,但是后面通过更改pdf后可以完成项目拉通!

http://www.lryc.cn/news/382499.html

相关文章:

  • 如何在Java中处理ParseException异常?
  • Java中如何解决BadPaddingException异常?
  • 数电大作业-四输入表决器
  • ONLYOFFICE 桌面编辑器 8.1重磅来袭:全新功能提升您的办公效率
  • 网络协议安全:TCP/IP协议栈的安全问题和解决方案
  • VERYCLOUD睿鸿股份亮相亚马逊云科技中国峰会2024
  • 2-15 基于matlab的蚁群,模拟退火,遗传,神经网络,禁忌搜索等智能优化算法对TSP问题
  • kylinos 国产操作系统离线安装firefox 麒麟操作系统安装新版本firefox
  • Python 类对象
  • pytest unittest temp path单元测试创建临时文件
  • 在线样机生成器,制作精美的电脑手机壁纸图片展示
  • FreeRTOS实时操作系统
  • C/S、B/S架构(详解)
  • 代码随想录算法训练营第六十五天|KM99. 岛屿数量——深搜、KM99. 岛屿数量——广搜、KM100. 岛屿的最大面积
  • Lua 面向对象编程
  • AI赋能前端:你的Chrome 控制台需要AI(爱)
  • 代码随想录-Day38
  • CSS阴影优化气泡框样式
  • 强化安全新篇章:韶关石油化工可燃气体报警器年检解析
  • Centos7 Docker部署PgSQL
  • LeetCode:经典题之21、24 题解及延伸
  • 【C++11】initializer_list详解!
  • 如何在Java中处理UnsupportedOperationException异常?
  • WPS没保存关闭了怎么恢复数据?4个方法(更新版)
  • elementplus el-table(行列互换)转置
  • Gradle 核心之 Task
  • 【React 】折叠面板,点击展开时再请求数据
  • c++学习 文件操作,模板
  • 开源与在线 M3U8 Downloader 项目介绍及使用指南
  • 正则表达式与文本处理器