敏捷数据开发实践:基于 Amazon Q Developer + Remote MCP 构建本地与云端 Amazon Redshift 交互体系
敏捷数据开发实践:基于 Amazon Q Developer + Remote MCP 构建本地与云端 Amazon Redshift 交互体系
新用户可获得高达 200 美元的服务抵扣金
亚马逊云科技新用户可以免费使用亚马逊云科技免费套餐(Amazon Free Tier)。注册即可获得 100 美元的服务抵扣金,在探索关键亚马逊云科技服务时可以再额外获得最多 100 美元的服务抵扣金。使用免费计划试用亚马逊云科技服务,最长可达 6 个月,无需支付任何费用,除非您选择付费计划。付费计划允许您扩展运营并获得超过 150 项亚马逊云科技服务的访问权限。
前言
数据驱动的开发场景中,本地工具与云端数据库的高效交互是提升效率的关键。本文聚焦 Amazon Q Developer + Remote MCP 访问 Amazon Redshift 方案,通过搭建 “本地 CLI - 中间服务 - 云端数据库” 链路,实现自然语言转 SQL 执行、内网安全访问等能力,帮助开发者简化 Redshift 数据查询流程,构建敏捷、可扩展的云端数据操作体系,适配快速迭代的开发需求
技术架构
本地环境中,Amazon Q Developer CLI 作为操作入口,向 MCP Server(stdio)发起请求,MCP Server 接收后,执行 SQL 语句并与 Amazon Redshift 数据库交互,构建起 “本地工具 - 中间服务 - 云端数据库” 的简洁数据处理链路,实现本地对云端数据库的操作与数据交互
- 操作链路精简高效:本地通过 Amazon Q Developer CLI 直连 MCP Server,省去复杂中间环节,快速触发 SQL 执行流程,降低操作延迟,让开发侧与服务端交互更敏捷,提升日常数据操作效率
- 精准的数据交互闭环:清晰构建 “本地工具 → 中间服务 → 云端数据库” 的交互路径,MCP Server 精准承接 CLI 指令并执行 SQL,保障数据操作精准触达,让本地开发对云端数据的读写、查询等需求,能稳定、直接地落地执行
- 架构轻量易维护:整体架构聚焦核心功能,以最少组件实现 “本地 - 服务端 - 云端数据库” 连通,无冗余设计。后续运维只需关注 CLI 工具、MCP Server 及 Redshift 交互逻辑,降低系统复杂度与维护成本,适配快速迭代的开发场景
前提准备:亚马逊云科技注册流程
Step.1 登录官网
登录亚马逊云科技官网,填写邮箱和账户名称完成验证(注册亚马逊云科技填写 root 邮箱、账户名,验证邮件地址,查收邮件填验证码验证,验证通过后设 root 密码并确认)
Step.2 选择账户计划
选择账户计划,两种计划,按需选"选择免费计划 / 选择付费计划"继续流程
- 免费(6 个月,适合学习实验,含$200抵扣金、限精选服务,超限额或到期可升级付费,否则关停)
- 付费(适配生产,同享$200 抵扣金,可体验全部服务,抵扣金覆盖广,用完按即用即付计费)
Step.3 填写联系人信息
填写联系人信息(选择使用场景,填联系人全名、电话,选择所在国家地区,完善地址、邮政编码,勾选同意客户协议,点击继续 进入下一步)
Step.4 绑定信息
绑定相关信息,选择国家地区,点击"Send code"收验证码填写,勾选同意协议后,点击"验证并继续"进入下一步
Step.5 电话验证
电话验证填写真实手机号,选择验证方式,完成安全检查,若选语音,网页同步显 4 位数字码,接来电后输入信息,再填收到的验证信息,遇问题超 10 分钟收不到可返回重试。
Step.6 售后支持
售后支持:免费计划自动获基本支持,付费计划需选支持计划(各计划都含客户服务,可访问文档白皮书,按需选后点 “完成注册”,若需企业级支持可了解付费升级选项,确认选好即可完成整个注册流程 )
Amazon Q Developer+Remote MCP 访问 Amazon Redshift
1、集成 Local MCP Server,创建 Python 虚拟环境
curl -LsSf https://astral.sh/uv/install.sh | sh# Create a new directory for your project (you've already done this) uv init redshift cd redshift# Create a Python 3.12 virtual environment uv venv # Activate the virtual environment source .venv/bin/activate# Install dependencies uv add mcp fastmcp redshift_connector# Create our server file touch redshift.py
2、准备 Local MCP Server 的 Python 代码 redshift.py
from mcp.server.fastmcp import FastMCP from mcp.types import TextContent from mcp.types import Resource, ResourceTemplate, Tool, TextContent import redshift_connector import osmcp = FastMCP(name="redshift", stateless_http=True) REDSHIFT_CONFIG = {"host": os.environ['REDSHIFT_HOST'],"port": int(os.environ['REDSHIFT_PORT']),"database": os.environ['REDSHIFT_DATABASE'],"user": os.environ['REDSHIFT_USER'],"password": os.environ['REDSHIFT_PASSWORD'] }def _execute_sql(sql:str):with redshift_connector.connect(**REDSHIFT_CONFIG) as conn:conn.autocommit = Truewith conn.cursor() as cursor:try:cursor.execute(sql)columns = [desc[0] for desc in cursor.description]rows = cursor.fetchall()result = [",".join(map(str, row)) for row in rows]return [TextContent(type="text", text="\n".join([",".join(columns)] + result ))]except Exception as e:return [TextContent(type="text", text=f"Error executing query: {str(e)}")]return None@mcp.tool() def execute_sql(sql: str) :"""Execute a SQL Query on the Redshift clusterArgs:sql: The SQL to Execute"""return _execute_sql(sql)@mcp.tool() def get_schemas(schema: str) :"""Get all tables in a schema from redshift databaseArgs:schema: the redshift schema"""sql = f"""SELECT table_name FROM information_schema.tablesWHERE table_schema = '{schema}'GROUP BY table_nameORDER BY table_name"""return _execute_sql(sql)@mcp.tool() def get_table_ddl(schema: str, table:str) :"""Get DDL for a table from redshift databaseArgs:schema: the redshift schema nametable: the redshift table name"""sql = f"""show table {schema}.{table}"""return _execute_sql(sql) if __name__ == "__main__":# Initialize and run the servermcp.run(transport='stdio')
3、通过 vim .amazonq/mcp.json 编辑 MCP Server 配置
{"mcpServers": {"redshiftserver": {"timeout": 60,"command": "uv","args": ["--directory","/path/redshift","run","redshift.py"],"env": {"RS_HOST": "your_redshift_cluster_host","RS_DATABASE": "default_is_dev","RS_SCHEMA": "default_is_public","RS_USER": "your_redshift_user","RS_PASSWORD": "your_redshift_password"},"transportType": "stdio"}} }
4、运行 Amazon Q Developer CLI,列出当前的 MCP Tools
5、输入自然语言查询数据:查看 Redshift 中客户表的数据条数,Amazon Q Developer CLI 将其转换为 SQL 并执行,获取到查询结果
6、需要为 Amazon Lambda 函数构建 Layer,将相关依赖包放入 Layer 当中,通过如下脚本构建 zip 包,并上传至 S3 中
#!/bin/bash mkdir -p layer_build cd layer_buildcat > requirements.txt << EOL fastapi==0.115.12 fastmcp==2.3.0 mcp==1.8.0 pydantic==2.11.4 uvicorn==0.34.2 redshift_connector EOLpython3.12 -m venv create_layer source create_layer/bin/activate pip install -r requirements.txt mkdir python cp -r create_layer/lib python/ zip -r layer_content.zip python
7、创建 Amazon Lambda Layer
8、创建 Amazon Lambda 函数,创建用于部署 MCP Server 的 Amazon Lambda 函数
9、为了让 Amazon Lambda 函数通过内网访问 Amazon Redshift 集群,需要设置 Amazon Lambda 函数的 VPC 、子网和安全组,并配置 Amazon Redshift 集群的安全组入站规则,允许来自 Amazon Lambda 函数安全组的访问
10、创建 Amazon API Gateway
11、使用 Amazon Q Developer CLI 进行测试
{"mcpServers":{"redshift-remote-server":{"command": "npx","args":["mcp-remote","https://xxxxx.execute-api.ap-southeast-1.amazonaws.com/dev/redshift/mcp/","--header","x-api-key: you api key of api gateway"]}} }
Amazon Q 介绍
Amazon Q 是一款生成式人工智能助手,专为企业和开发者打造,能改变组织工作模式。它整合多方数据,以自然语言交互,覆盖软件开发、商业智能分析、客户服务及供应链管理等领域,为员工提供专业功能,加速任务完成,深入洞察数据
- 专业领域赋能:为软件开发人员、商业智能分析师等不同岗位人员提供针对性功能。比如开发者版可助力编码、测试、部署及故障排查等全流程任务;在商业智能方面,能让业务分析师用自然语言快速构建 BI 仪表板
- 安全隐私保障:严格遵循身份、角色和权限体系,用户无法通过它访问原本无权接触的数据。其管理控件支持自定义授权,数据在传输和存储时均加密,且不会利用企业数据训练基础模型,确保企业数据安全与隐私
- 广泛系统集成:内置超 40 个连接器,可连接如 Amazon S3、Salesforce、Google Drive 等常用企业应用和文档存储库,还能为内部 Intranets 等构建自定义连接器,打破数据孤岛,综合各类信息为用户提供服务
总结
本文围绕 Amazon Q Developer + Remote MCP 访问 Amazon Redshift 方案,构建了从本地开发到云端部署的完整数据交互体系。通过搭建 “本地 CLI - MCP Server - 云端数据库” 链路,实现自然语言转 SQL 执行的敏捷开发体验;结合 Lambda Layer、VPC 配置及 API Gateway,完成 MCP Server 远程化部署与内网安全访问。方案以精简架构提升数据操作效率,以安全配置保障链路可靠,为开发者提供了一套适配快速迭代需求的 Redshift 云端数据操作实践指南。