使用兼容OpenAI的API访问Amazon Bedrock
项目源代码已使用Bedrock提供的新 Converse API 进行了重构,该API对工具调用提供了原生支持。
如果您遇到任何问题,请提 Github Issue。
Amazon Bedrock提供了广泛的基础模型(如Claude 3 Opus/Sonnet/Haiku、Llama 2/3、Mistral/Mixtral等),以及构建生成式AI应用程序的多种功能。更多详细信息,请查看Amazon Bedrock。
有时,您可能已经使用OpenAI的API或SDK构建了应用程序,并希望在不修改代码的情况下试用Amazon Bedrock的模型。或者,您可能只是希望在AutoGen等工具中评估这些基础模型的功能。 好消息是, 这里提供了一种方便的途径,让您可以使用 OpenAI 的 API 或 SDK 无缝集成并试用 Amazon Bedrock 的模型,而无需对现有代码进行修改。
如果您觉得这个项目有用,请考虑给它点个一个免费的小星星 ⭐。
功能列表:
- 支持 server-sent events (SSE)的流式响应
- 支持 Model APIs
- 支持 Chat Completion APIs
- 支持 Tool Call (new)
- 支持 Embedding API (new)
- 支持 Multimodal API (new)
- 支持 Cross-Region Inference (new)
请查看使用指南以获取有关如何使用新API的更多详细信息。
注意: 不支持旧的 text completion API,请更改为使用Chat Completion API。
支持的Amazon Bedrock模型家族:
- Anthropic Claude 2 / 3 (Haiku/Sonnet/Opus) / 3.5 Sonnet
- Meta Llama 2 / 3
- Mistral / Mixtral
- Cohere Command R / R+
- Cohere Embedding
你可以先调用models
API 获取支持的详细 model ID 列表。
注意: 默认模型为
anthropic.claude-3-sonnet-20240229-v1:0
, 可以通过更改Lambda环境变量进行更改。
请确保您已满足以下先决条件:
- 可以访问Amazon Bedrock基础模型。
如果您还没有获得模型访问权限,请参考配置指南。
下图展示了本方案的参考架构。请注意,它还包括一个新的VPC,其中只有两个公共子网用于应用程序负载均衡器(ALB)。
您也可以选择在 ALB 后面接 AWS Fargate 而不是 AWS Lambda,主要区别在于流响应的首字节延迟(Fargate更低)。
或者,您可以使用 Lambda Function URL 来代替 ALB,请参阅示例
请按以下步骤将Bedrock代理API部署到您的AWS账户中。仅支持Amazon Bedrock可用的区域(如us-west-2)。 部署预计用时3-5分钟 🕒。
第一步: 自定义您的API Key (可选)
注意:这一步是使用任意字符串(不带空格)创建一个自定义的API Key(凭证),将用于后续访问代理API。此API Key不必与您实际的OpenAI Key一致,您甚至无需拥有OpenAI API Key。建议您执行此步操作并且请确保保管好此API Key。
- 打开AWS管理控制台,导航到Systems Manager服务。
- 在左侧导航窗格中,单击"参数存储"。
- 单击"创建参数"按钮。
- 在"创建参数"窗口中,选择以下选项:
- 名称:输入参数的描述性名称(例如"BedrockProxyAPIKey")。
- 描述:可选,为参数提供描述。
- 层级:选择标准。
- 类型:选择SecureString。
- 值: 随意字符串(不带空格)。
- 单击"创建参数"。
- 记录您使用的参数名称(例如"BedrockProxyAPIKey")。您将在下一步中需要它。
第二步: 部署CloudFormation堆栈
- 登录AWS管理控制台,切换到要部署CloudFormation堆栈的区域。
- 单击以下按钮在该区域启动CloudFormation堆栈,选择一种方式部署。
- 单击"下一步"。
- 在"指定堆栈详细信息"页面,提供以下信息:
- 堆栈名称: 可以根据需要更改名称。
- ApiKeyParam(如果在步骤1中设置了API Key):输入您用于存储API密钥的参数名称(例如"BedrockProxyAPIKey"),否则,请将此字段留空。 单击"下一步"。
- 在"配置堆栈选项"页面,您可以保留默认设置或根据需要进行自定义。
- 单击"下一步"。
- 在"审核"页面,查看您即将创建的堆栈详细信息。勾选底部的"我确认,AWS CloudFormation 可能创建 IAM 资源。"复选框。
- 单击"创建堆栈"。
仅此而已 🎉 。部署完成后,点击CloudFormation堆栈,进入"输出"选项卡,你可以从"APIBaseUrl"
中找到API Base URL,它应该类似于http://xxxx.xxx.elb.amazonaws.com/api/v1
这样的格式。
你只需要API Key和API Base URL。如果你没有设置自己的密钥,那么默认将使用API Key bedrock
。
现在,你可以尝试使用代理API了。假设你想测试Claude 3 Sonnet模型,那么使用"anthropic.claude-3-sonnet-20240229-v1:0"作为模型ID。
- API 使用示例
export OPENAI_API_KEY=<API key>
export OPENAI_BASE_URL=<API base url>
# 旧版本请使用OPENAI_API_BASE
# https://github.com/openai/openai-python/issues/624
export OPENAI_API_BASE=<API base url>
curl $OPENAI_BASE_URL/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
"model": "anthropic.claude-3-sonnet-20240229-v1:0",
"messages": [
{
"role": "user",
"content": "Hello!"
}
]
}'
- SDK 使用示例
from openai import OpenAI
client = OpenAI()
completion = client.chat.completions.create(
model="anthropic.claude-3-sonnet-20240229-v1:0",
messages=[{"role": "user", "content": "Hello!"}],
)
print(completion.choices[0].message.content)
请查看使用指南以获取有关如何使用Embedding API、多模态API和Tool Call的更多详细信息。
Cross-Region Inference 支持跨区域访问的基础模型,即允许用户在一个 AWS 区域中调用其他区域的基础模型进行推理。主要优势:
- 提高可用性: 提供区域冗余,增强容错能力。当主要区域出现问题时可以切换到备用区域,确保服务的持续可用性和业务连续性
- 降低延迟: 可以选择地理位置最接近用户的区域,优化网络路径,减少传输时间,提供更好的用户体验和响应速度
- 性能和容量优化: 实现负载均衡,分散请求压力,提供更大的服务容量和吞吐量,能够更好地处理流量峰值
- 灵活性: 根据需求选择不同区域的模型,满足特定地区的合规要求,更灵活的资源调配和管理
- 成本效益: 可以选择成本更优的区域,通过优化资源使用降低总体运营成本,更好的资源利用效率
详细介绍请查看Bedrock Cross-Region Inference
限制条件: 当前 Gateway 只添加了对 Claude 3 Haiku/Claude 3 Opus/Claude 3 Sonnet/Claude 3.5 Sonnet 的跨区域调用
- Claude 3 Haiku
- Claude 3 Opus
- Claude 3 Sonnet
- Claude 3.5 Sonnet
使用前提:
- IAM Policy 有 inference profiles 相关的权限和调用模型的权限 (cloudformation template 中已添加)
- 对 inference profiles 中定义的模型和区域中都启用模型访问权限
使用方法:
- 在调用模型时设置 modelId 为 inference profile ID, 例如
us.anthropic.claude-3-5-sonnet-20240620-v1:0
curl $OPENAI_BASE_URL/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
"model": "us.anthropic.claude-3-5-sonnet-20240620-v1:0",
"max_tokens": 2048,
"messages": [
{
"role": "user",
"content": "Hello!"
}
]
}'
例如在AutoGen studio配置和使用模型
请确保使用的示ChatOpenAI(...)
,而不是OpenAI(...)
# pip install langchain-openai
import os
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
chat = ChatOpenAI(
model="anthropic.claude-3-sonnet-20240229-v1:0",
temperature=0,
openai_api_key=os.environ['OPENAI_API_KEY'],
openai_api_base=os.environ['OPENAI_BASE_URL'],
)
template = """Question: {question}
Answer: Let's think step by step."""
prompt = PromptTemplate.from_template(template)
llm_chain = LLMChain(prompt=prompt, llm=chat)
question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"
response = llm_chain.invoke(question)
print(response)
这个方案不会收集您的任何数据。而且,它默认情况下也不会记录任何请求或响应。
简单的答案是API Gateway不支持 server-sent events (SSE) 用于流式响应。
只支持Amazon Bedrock可用的区域, 截至当前,包括以下区域:
- 美国东部(弗吉尼亚北部):us-east-1
- 美国西部(俄勒冈州):us-west-2
- 亚太地区(新加坡):ap-southeast-1
- 亚太地区(悉尼):ap-southeast-2
- 亚太地区(东京):ap-northeast-1
- 欧洲(法兰克福):eu-central-1
- 欧洲(巴黎):eu-west-3
通常来说,所有Amazon Bedrock支持的区域都支持,如果不支持,请提个Github Issue。
注意,并非所有模型都在上面区可用。
是的,你可以克隆repo并自行构建容器镜像(src/Dockerfile),然后推送到你自己的ECR仓库。 脚本可以参考scripts/push-to-ecr.sh
。
在部署之前,请在CloudFormation模板中替换镜像仓库URL。
是的,你可以在本地运行,那么API Base URL应该类似于http://localhost:8000/api/v1
与 AWS SDK 调用相比,本方案参考架构会在响应上会有额外的延迟,你可以自己部署并测试。
另外,你也可以使用 Lambda Web Adapter + Function URL ( 参见 示例)来代替 ALB 或使用 AWS Fargate 来代替 Lambda,以获得更好的流响应性能。
目前没有支持SageMaker模型的计划。这取决于是否有客户需求。
不支持微调模型和设置了已预配吞吐量的模型。如有需要,你可以克隆repo并进行自定义。
要使用最新功能,您无需重新部署CloudFormation堆栈。您只需拉取最新的镜像即可。
具体操作方式取决于您部署的版本:
- Lambda版本: 进入AWS Lambda控制台,找到Lambda 函数,然后找到并单击
部署新映像
按钮,然后单击保存。 - Fargate版本: 进入ECS控制台,单击ECS集群,转到
任务
选项卡,选择正在运行的唯一任务,然后点击停止所选
菜单, ECS会自动启动新任务并且使用最新镜像。
更多信息,请参阅CONTRIBUTING。
本项目根据MIT-0许可证获得许可。请参阅LICENSE文件。