当前位置: 首页 > news >正文

使用Langchain调用模型上下文协议 (MCP)服务

使用Langchain调用模型上下文协议 (MCP)服务

MCP的火爆带来了很多的优质MCP服务,怎么将这些优质的MCP服务快速的集成到agent的能力上,除了官方的简单适配器外,我发现了一个宝藏Python库:mcpstore

mcpstore已经发布到PyPI上,使用pip install mcpstore就可以直接使用,作者设计的非常直观人性化,没有复杂的名称,还采用了链式调用,非常的直观。

store = MCPStore.setup_store()store.for_store().add_service({"name": "mcpstore-wiki", "url": "http://mcpstore.wiki/mcp"})tools = await store.for_store().for_langchain().list_tools()

几行代码就可以直接使用tools了,这个tools列表是完全兼容langchain的,可以和我们已经通过@tool定义好的方法直接使用列表加法添加,作者还提供了一个可以直接运行的例子:

from langchain.agents import create_tool_calling_agent, AgentExecutor
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from mcpstore import MCPStore
store = MCPStore.setup_store()
store.for_store().add_service({"name":"mcpstore-wiki","url":"http://mcpstore.wiki/mcp"})
tools = store.for_store().to_langchain_tools()
llm = ChatOpenAI(temperature=0, model="deepseek-chat",openai_api_key="sk-****",openai_api_base="https://api.deepseek.com"
)
prompt = ChatPromptTemplate.from_messages([("system", "你是一个助手,回答的时候带上表情"),("human", "{input}"),("placeholder", "{agent_scratchpad}"),
])
agent = create_tool_calling_agent(llm, tools, prompt)
agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True)
query = "北京的天气怎么样?"
print(f"\n   🤔: {query}")
response = agent_executor.invoke({"input": query})
print(f"   🤖 : {response['output']}")

只需要替换模型就可以直接使用了,本人亲测还是好用的。

🏪 Store设计思路

作者的思路是通过维护一个mcp.json文件作为一个**“store”**的开店基础,也就是说可以直接拿现在的通用的json文件直接生成一个store,每个store会维护好注册在他身上的这些服务,如果想要使用,直接use_tool就行,非常直观。

🔗 链式设计

另一个直观的点是,作者考虑到,一个store可能要维护过多的MCP服务,所以他设计了两个链:

  • store.for_store()
  • store.for_agent("agent_id")

其中for_store后面的方法就是操作store的for_agent的后面的方法就是操作一个agent的,所以如果某个agent只需要部分的MCP服务,可以直接给他量身定制一套MCP服务们,store会复杂维护心跳和更新,并且保证更加迅速的响应和记录,下面是作者的展示:

store = MCPStore.setup_store()agent_id1 = "my-knowledge-agent"
knowledge_agent_context = store.for_agent(agent_id1).add_service({"name": "mcpstore-wiki", "url": "http://mcpstore.wiki/mcp"}
)agent_id2 = "my-development-agent"
dev_agent_context = store.for_agent(agent_id2).add_service({"name": "mcpstore-demo", "url": "http://mcpstore.wiki/mcp"}
)# 各Agent的工具集完全隔离,互不影响
knowledge_tools = store.for_agent(agent_id1).list_tools()
dev_tools = store.for_agent(agent_id2).list_tools()

🎨 可视化管理界面

对于你的store,作者的GitHub上有一个开源的Vue项目,可以通过简单的几行代码开启API模式,搭配Vue可以有一个前端点点点的维护store:

image-20250721212359929

可以通过 mcpstore run api 快速启动API模式,或者通过一段简单的代码:

from mcpstore import MCPStore
prod_store = MCPStore.setup_store()
prod_store.start_api_server(host='0.0.0.0',port=18200
)

快速启动后端,clone项目之后npm run dev即可运行Vue的前端。

也可以通过 http://www.mcpstore.wiki/web_demo/dashboard 来快速体验

🔧 灵活的服务注册

对于服务的增删改查,作者尽可能的兼容各种各样的格式,保证用户可以不需要太过于专注格式,只要不冲突并且关键的配置对就行,所以支持市面上常见的字典和列表等等格式,主流的Client的json配置文件都可以直接使用,非常方便。

📄 自动加载配置文件

注册 mcp.json 配置文件中的所有服务:

store.for_store().add_service()

不传递任何参数,add_service自动查找并加载项目根目录下的 mcp.json 文件,该文件兼容主流格式

🌐 远程服务注册

通过 URL 添加远程 MCP 服务:

store.for_store().add_service({"name": "mcpstore-wiki","url": "http://mcpstore.wiki/mcp","transport": "streamable-http"
})
  • transport: 可选字段,可以自动推断传输协议 (streamable-http, sse)

💻 本地服务进程

启动本地 MCP 服务进程:

# Python 服务
store.for_store().add_service({"name": "local_assistant","command": "python","args": ["./assistant_server.py"],"env": {"DEBUG": "true", "API_KEY": "your_key"},"working_dir": "/path/to/service"
})# Node.js 服务
store.for_store().add_service({"name": "node_service","command": "node","args": ["server.js", "--port", "8080"],"env": {"NODE_ENV": "production"}
})# 可执行文件
store.for_store().add_service({"name": "binary_service","command": "./mcp_server","args": ["--config", "config.json"]
})

📄 标准配置格式

使用标准 MCP 配置格式:

store.for_store().add_service({"mcpServers": {"mcpstore-wiki": {"url": "http://mcpstore.wiki/mcp"},"howtocook": {"command": "npx","args": ["-y","howtocook-mcp"]}}
})

🎯 选择性注册

从现有配置中选择特定服务注册:

# 注册指定的服务
store.for_store().add_service(['mcpstore-wiki', 'howtocook'])# 注册单个服务
store.for_store().add_service(['howtocook'])

📁 外部文件配置

从外部 JSON 文件读取配置:

store.for_store().add_service(json_file="./demo_config.json")

JSON 文件格式示例

{"mcpServers": {"mcpstore-wiki": {"url": "http://mcpstore.wiki/mcp"},"howtocook": {"command": "npx","args": ["-y","howtocook-mcp"]}}
}

以及 add_service 支持的其他格式 📝:

{"name": "mcpstore-wiki","url": "http://mcpstore.wiki/mcp"
}

🎯 总结

总之,该项目更新比较频繁,感觉作者也在全力做一个直观好用的MCP管理包,对于Langchain集成MCP服务或许是一个不错的选择。

http://www.lryc.cn/news/595207.html

相关文章:

  • 【未限制消息消费导致数据库CPU告警问题排查及解决方案】
  • WEB前端登陆页面(复习)
  • 随笔20250721 PostgreSQL实体类生成器
  • Elasticsearch X-Pack安全功能未启用的解决方案
  • OpenEuler 22.03 系统上安装配置gitlab runner
  • 笔试——Day14
  • 【PTA数据结构 | C语言版】求单源最短路的Dijkstra算法
  • 打造自己的 Jar 文件分析工具:类名匹配 + 二进制搜索 + 日志输出全搞定
  • Laravel 后台登录 403 Forbidden 错误深度解决方案-优雅草卓伊凡|泡泡龙
  • PHP实战:从原理到落地,解锁Web开发密码
  • 【HarmonyOS】ArkTS语法详细解析
  • Valgrind Cachegrind 全解析:用缓存效率,换系统流畅!
  • NISP-PTE基础实操——代码审计
  • Near Cache
  • 嵌入式学习-土堆目标检测(1)-day26
  • 低代码平台能否完全取代传统前端开发
  • Apache Ignite Binary Object 调优
  • OpenCV计算机视觉实战(16)——图像分割技术
  • 有关Maven的个人笔记总结
  • 【PTA数据结构 | C语言版】双连通分量
  • Spring Boot自动装配原理深度解析:从核心注解到实现机制
  • AWS IoT Core CloudWatch监控完整指南
  • AWS Certified Cloud Practitioner 认证考试 测试题与解析
  • HCL 三层知识总结
  • PyTorch 实现 CIFAR-10 图像分类:从数据预处理到模型训练与评估
  • RAG实战指南 Day 20:大规模向量索引优化技术
  • 轮状太空城的科学依据浅谈
  • Linux的目录
  • 在github上搭建自己主页
  • GLog编译提示fatal error LNK1112: 模块计算机类型“x64”与目标计算机类型“X86”冲突问题的解决