当前位置: 首页 > news >正文

llama_index

目录

安装

llama_index 搜索引擎

用 DeepSeek API 替换本地 Ollama 模型

源代码:


安装

 pip install llama_index

llama_index 搜索引擎

llama_index框架构建搜索引擎_llamaindex使用正则表达式拆分文档-CSDN博客

用 DeepSeek API 替换本地 Ollama 模型

https://zhuanlan.zhihu.com/p/842132629

源代码:

# %%
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
from llama_index.vector_stores.chroma import ChromaVectorStore
from llama_index.core import StorageContext
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from IPython.display import Markdown, displayfrom llama_index.llms.openai import OpenAI
import chromadb# %%import openai
openai.api_key = "sk"openai.api_base = "https://api.deepseek.com/v1"
llm = OpenAI(model='deepseek-chat',api_key=openai.api_key, base_url=openai.base_url)from llama_index.core import Settings# llm = OpenAI(api_key=openai.api_key, base_url=openai.base_url)
Settings.llm = OpenAI(model="deepseek-chat",api_key=openai.api_key, base_url=openai.base_url)
# %%
import osjinaai_api_key = "jina"
os.environ["JINAAI_API_KEY"] = jinaai_api_keyfrom llama_index.embeddings.jinaai import JinaEmbeddingtext_embed_model = JinaEmbedding(api_key=jinaai_api_key,model="jina-embeddings-v3",# choose `retrieval.passage` to get passage embeddingstask="retrieval.passage",
)# %%
# create client and a new collection
chroma_client = chromadb.EphemeralClient()
chroma_collection = chroma_client.create_collection("quickstart")# %%# define embedding function
embed_model = text_embed_model# load documents
documents = SimpleDirectoryReader("./data/paul_graham/").load_data()# save to diskdb = chromadb.PersistentClient(path="./chroma_db")
chroma_collection = db.get_or_create_collection("quickstart")
vector_store = ChromaVectorStore(chroma_collection=chroma_collection)
storage_context = StorageContext.from_defaults(vector_store=vector_store)index = VectorStoreIndex.from_documents(documents, storage_context=storage_context, embed_model=embed_model
)# load from disk
db2 = chromadb.PersistentClient(path="./chroma_db")
chroma_collection = db2.get_or_create_collection("quickstart")
vector_store = ChromaVectorStore(chroma_collection=chroma_collection)
index = VectorStoreIndex.from_vector_store(vector_store,embed_model=embed_model,
)# Query Data from the persisted index
query_engine = index.as_query_engine()
response = query_engine.query("What did the author do growing up?")
print('response:',response)

http://www.lryc.cn/news/532614.html

相关文章:

  • Spring Boot统一异常拦截实践指南
  • Games104——游戏引擎Gameplay玩法系统:基础AI
  • stm32生成hex文件详解
  • 【Windows 开发NVIDIA相关组件】CUDA、cuDNN、TensorRT
  • AI大模型(二)基于Deepseek搭建本地可视化交互UI
  • 各种协议设计
  • DockerFile详细学习
  • Windows Docker笔记-简介摘录
  • TeamSpeak开黑频道加入 —— 点歌机器人 (细致讲解100%学会)
  • 2025简约的打赏系统PHP网站源码
  • 网络安全 | 零信任架构:重构安全防线的未来趋势
  • JavaScript系列(62)--实时通信系统实现详解
  • 【蓝桥杯嵌入式】2_LED
  • 代码随想录day06
  • Spring @PropertySource:让你的应用配置更加模块化和可维护
  • 【Java】MyBatis动态SQL
  • 旅行社项目展示微信小程序功能模块和开发流程
  • litemall,又一个小商场系统
  • WGCLOUD监控系统部署教程
  • Python大数据可视化:基于Python的王者荣耀战队的数据分析系统设计与实现_flask+hadoop+spider
  • (苍穹外卖)项目结构
  • ASP.NET Core筛选器Filter
  • ChatGPT怎么回事?
  • 软件工程-可行性研究
  • 园区网设计与实战
  • spy-debugger + Charles 调试移动端/内嵌小程序H5
  • 4.攻防世界 unseping
  • 安装和使用 Ollama(实验环境windows)
  • (一)DeepSeek大模型安装部署-Ollama安装
  • 【大数据技术】搭建完全分布式高可用大数据集群(ZooKeeper)