亚马逊AWS官方博客
Meta 的 Llama 3 模型现已在 Amazon Bedrock 中推出
今天,我们宣布在 Amazon Bedrock 中正式提供 Meta 的 Llama 3 模型。Meta Llama 3 专为您构建、实验和负责任地扩展生成式人工智能(AI)应用程序而设计。新的 Llama 3 模型在推理、代码生成和指令方面进行了改进,因此能够支持更广泛的用例。
根据 Meta 的 Llama 3 公告,Llama 3 模型系列是一组参数大小为 8B 和 70B 的预训练和指令调整的大型语言模型(LLM)。这些模型已经在超过15 万亿个数据令牌上进行了训练,该训练数据集是 Llama 2 模型所用数据集的七倍(其中,代码数量是后者的四倍多),它支持 8K 上下文长度,容量较 Llama 2 翻了一番。
您现在可以在 Amazon Bedrock 中使用两种新的 Llama 3 模型,这进一步增加了 Amazon Bedrock 中的模型选择。这些模型使您能够针对您的用例轻松试验和评估更多顶级基础模型(FM):
- Llama 3 8B 非常适合有限的计算能力和资源以及边缘设备。该模型在文本摘要、文本分类、情感分析和语言翻译方面表现出色。
- Llama 3 70B 非常适合内容创建、对话式 AI、语言理解、研究开发和企业应用程序。该模型在文本摘要和准确性、文本分类和细微差别、情感分析和细微差别推理、语言建模、对话系统、代码生成和遵循指令方面表现出色。
Meta 目前还在训练其他大小超过 400B 参数的 Llama 3 模型。这些 400B 模型将具有新功能,包括多模态、多语言支持和更长的上下文窗口。这些模型发布后,将成为内容创作、对话式人工智能、语言理解、研发(R&D)和企业应用程序的理想之选。
Llama 3 模型的实际应用
如果您是第一次使用 Meta 模型,请前往 Amazon Bedrock 控制台,然后在左下方窗格中选择模型访问权限。要从 Meta 访问最新的 Llama 3 模型,请单独请求访问 Llama 3 8B Instruct 或 Llama 3 70B Instruct。
要在 Amazon Bedrock 控制台中测试 Meta Llama 3 模型,请在左侧菜单窗格的操场下选择文本或聊天。然后选择选择模型并选择 Meta 作为类别,选择 Llama 8B Instruct 或 Llama 3 70B Instruct 作为模型。
您还可以选择查看 API 请求,使用 AWS 命令行界面(AWS CLI)和 AWS SDK 中的代码示例访问模型。您可以使用模型 ID,如 meta.llama3-8b-instruct-v1
或 meta.llama3-70b-instruct-v1
。
以下是 AWS CLI 命令的示例:
您可以使用 AWS SDK,通过 Amazon Bedrock 的代码示例以各种编程语言构建应用程序。以下 Python 代码示例展示了如何在 Amazon Bedrock 中调用 Llama 3 Chat 模型来生成文本。
您可以将这些 Llama 3 模型用于各种任务,例如问答、语言翻译、情感分析等。以下是带有少量情境学习的 Llama 3 模型的示例,我们在其中为模型提供了可用的训练样本。
您也可以使用针对对话用例进行了优化的 Llama 3 指令模型。指令模型端点的输入是聊天助手和用户之间的先前历史记录。因此,您可以提出与迄今为止发生的对话相关的问题,并提供系统配置,例如角色,它按以下格式定义聊天助手的行为:
在以下示例中,用户与助手就巴黎的旅游景点进行了对话。然后,用户询问聊天助手最推荐哪个选项。
要了解有关 Llama 3 的新提示模板和特殊标记的更多信息,请查看 Meta 的模型卡和提示格式或 GitHub 存储库中的 Llama 配方。
现已推出
美国东部(弗吉尼亚州北部)和美国西部(俄勒冈州)区域目前已在 Amazon Bedrock 中提供 Meta 的 Llama 3 模型。查看完整区域列表以了解将来的更新。要了解更多信息,请查看 Amazon Bedrock 中的 Llama 产品页面和定价页面。
立即在 Amazon Bedrock 控制台中试用 Llama 3,并将反馈发送至 AWS re:Post for Amazon Bedrock 或通过您常用的 AWS Support 联系方式发送。
请访问我们的 community.aws 网站,查找深入的技术内容,并了解我们的构建者社区如何在其解决方案中使用 Amazon Bedrock。
– Channy
*前述特定亚马逊云科技生成式人工智能相关的服务仅在亚马逊云科技海外区域可用,亚马逊云科技中国仅为帮助您了解行业前沿技术和发展海外业务选择推介该服务。