当前位置: 首页 > news >正文

【LLM开发学习】

目录

  • LLM开发及其介绍
  • Langchain 支持的模型
  • 案例
    • 案例一:Langchain简单实现LLM调用
  • 参考资料

LLM开发及其介绍

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述

在这里插入图片描述在这里插入图片描述在这里插入图片描述

Langchain 支持的模型

在这里插入图片描述在这里插入图片描述在这里插入图片描述

案例

案例一:Langchain简单实现LLM调用

在这里插入图片描述

from fastapi import FastAPI
from langchain_core.messages import SystemMessage, HumanMessage
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
import os
#
# os.environ["OPENAI_BASE_URL"] = "https://xxx.com/v1"
# os.environ["OPENAI_API_KEY"] = "******"
from langchain.chat_models import init_chat_model
from langserve import add_routesos.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_API_KEY"] = "******"
#1.模型创建
# model=ChatOpenAI(model='gpt-4-turbo')
model = init_chat_model(model="deepseek-ai/DeepSeek-R1-0528-Qwen3-8B",#"Qwen/Qwen3-8B", # 模型名称model_provider="openai", # 模型提供商,硅基流动提供了openai请求格式的访问base_url="https://api.siliconflow.cn/v1/", #硅基流动模型的请求urlapi_key="*****", # 填写你注册的硅基流动 API Key
)# #2.准备prompt
# msg=[
#     SystemMessage(content='请将以下内容翻译为意大利语言'),
#     HumanMessage(content='你好,请问你要去哪里?')
# ]# result=model.invoke(msg)
# print(result)#未解析答案#定义prompt模板
prompt_template=ChatPromptTemplate.from_messages([('system','请将以下内容翻译为{language}'),('user','{text}')
])#3.创建返回数据解析器
#简单解析响应数据
parser=StrOutputParser()
# print(parser.invoke(result))#仅输出结果#4.创建链
chain=prompt_template|  model | parser
# print(chain.invoke(msg))
# print(chain.invoke({'language':'English','text':'我现在有事,您请回吧。'}))##服务端部署
#创建fastapi应用
app=FastAPI(title='我的Langchain服务',version='V1.0',description='翻译器')add_routes(app,chain,path="/demo_chain",#路由接口
)if __name__=="__main__":import uvicorn#port:端口号# uvicorn.run(app,host="localhost",port=123456)#127.0.0.1uvicorn.run(app, host="127.0.0.1", port=888)  #在 TCP/IP 协议中,端口号是一个 16 位的整数,范围从 0 到 65535
from langserve import RemoteRunnableif __name__=="__main__":##实现服务端访问client=RemoteRunnable('http://127.0.0.1:888/demo_chain/')print(client.invoke({'language':'English','text':'我现在有事。'}))

参考资料

AI大模型

http://www.lryc.cn/news/614602.html

相关文章:

  • 十三、抽象队列同步器AQS
  • ClickHouse集群部署实践---3分片2副本集群
  • 【C#】掌握并发利器:深入理解 .NET 中的 Task.WhenAll
  • 宝龙地产债务化解解决方案一:基于资产代币化与轻资产转型的战略重构
  • MMBFJ310LT1G一款N沟道JFE 晶体管适用于高频放大器和振荡器等射频应用MMBFJ310LT1
  • 【vue】Vue 重要基础知识清单
  • 全面解析软件工程形式化说明技术
  • Vue 服务端渲染(SSR)详解
  • 页面tkinter
  • 初始化完数据库提示缺少server文件的处理方法
  • C 语言链表数据结构
  • 接口为什么要设计出v1和v2
  • 升级的MS9122S USB投屏控制芯片(HD输出)
  • Prometheus 通过读取文件中的配置来监控目标
  • 安科瑞EMS3.0:打造“零碳工厂”的智能能源神经中枢
  • 【Spring Boot 快速入门】八、登录认证(一)基础登录与认证校验
  • 用 “故事 + 价值观” 快速建立 IP 信任感
  • Shell脚本实现自动封禁恶意扫描IP
  • 後端開發技術教學(三) 表單提交、數據處理
  • vscode EIDE 无法编译,提示 “文件名、目录名或卷标语法不正确;
  • WPF 表格中单元格使用下拉框显示枚举属性的一种方式
  • 数据大集网:重构企业贷获客生态的线上获客新范式​
  • Ignite内部事件总线揭秘
  • Android 之 OOM的产生和解决办法
  • K-Means 聚类
  • 嵌入式第二十三课 !!!树结构与排序(时间复杂度)
  • AD布线时,如何设置线宽和线间距?简单
  • OpenAI 时隔多年再开源!GPT-OSS 120B/20B 发布,支持本地部署,消费级 GPU 即可运行
  • 五十六、【Linux系统nginx服务】nginx虚拟主机实现
  • InfluxDB 权限管理与安全加固(一)