亚马逊AWS官方博客
使用 Rolling Batch 加速 SageMaker LLM 模型推理性能
本文介绍了近期业界新的 Rolling Batch(continually batch)的批处理推理优化技术原理,并给出了在 Amazon SageMaker 上使用 vLLM 框架进行 Rolling Batch 推理优化的实践和测试对比,可以帮助客户在实际生产场景中通过简单配置,立竿见影地提升线上部署的 LLM 的推理吞吐量,降低响应时延,节省资源。
利用 StarRocks on AWS 实现高性能实时数据分析
StarRocks 是专为所有数据分析场景而设计的下一代亚秒级 MPP 数据库,旨在提供任何规模的简单快速的数据分析。结合易于使用的数据加载管道和对数据源的丰富支持,StarRocks on AWS 可以帮助用户实现他们的目标。StarRocks Flink CDC 连接器的推出是为了简化实时数据加载管道,成为 StarRocks 数据加载领域的新成员。
顾盼自如:基于 Amazon AppStream 2.0 打造数据分析师安全灵活的工作平台
背景 当今跨国企业对于数据资产安全程度的需求日趋严格,尤其涉及到跨多个组织架构,企业内部对于数据敏感保护意识都 […]
释放 Claude2 和 ComfyUI 超强能力,基于 Amazon Bedrock 和 SageMaker 的 GenAI 视觉管线
本文提供了一个快速搭建 Claude2 与 ComfyUI 的解决方案,通过程序化手段巧妙地将这两个 LLM 和视频生成模型融合,使其在实际业务场景中具备更显著的价值。
基于 Amazon Security Lake 打造统一日志分析平台 方案设计与实践
本方案介绍了 Amazon Security Lake 和第三方日志分析平台集成的方案。介绍了 Security Lake 使用到的相关云服务、支持的数据采集、支持的数据源、自定义数据和支持的外部数据订阅。并与 Splunk 集成方案的方案优势、挑战和适用场景,并给出了的部署方案的参考步骤和示例代码。
Amazon Bedrock 大语言模型加速 OCR 场景精准提取
生成式 AI 正在井喷式快速发展,结合 Bedrock + Textract 加速 OCR 场景文本精准识别与提取
在基于 Amazon 云平台的湖仓一体架构上构建数据血缘的探索和实践
本文会为您介绍在湖仓一体架构下,如何将亚马逊云科技的数据湖 Amazon S3 在数据 ETL 处理过程中通过 Spline 捕获并产生在图数据库 ArangoDB 中的数据血缘和数据仓库 Amazon Redshift 通过 DBT 产生的数据血缘进行合并,并使用图数据库 Amazon Neptune 通过 DAG 图进行可视化展示。
Amazon Aurora 新功能 — 本地写入转发测评
本篇博客针对 Amazon Aurora 的本地写入转发功能进行了介绍和简要测试,旨在帮助用户更直观地了解 Amazon Aurora 的本地写入转发功能,为其是否选择此功能提供参考。
在 AWS 控制台上使用基于网页界面的 EC2 Instance Connect 功能连接到 EC2 的 SSH
EC2 Instance Connect 功能是基于 WEB 界面的 SSH 工具,可通过互联网或者 VPC Endpoint 登录到 EC2。本文讲解 EC2 Instance Connect 功能的使用。
AWS 云上 MongoDB/DocumentDB 数据定期归档
本文针对在电商、视频、游戏、生命科学、医疗等行业定期归档 MongoDB/DocumentDB 数据的业务场景,提供了一套基于 AWS 无服务器化的自动归档与查询方案。