Amazon Web Services ブログ
AWS Pricing Calculatorの一括インポートでコスト見積もりを迅速に取得
AWS Pricing Calculatorは、構造化されたExcelテンプレートを使用して Amazon Elastic Compute Cloud (Amazon EC2) インスタンス、専有ホスト、 Amazon Elastic Block Store (Amazon EBS) ボリュームを一括インポートする機能に対応しました。この新機能により、 EC2 または EBS ベースのリソース群を短時間で見積もることができ、迅速な繰り返しが可能になります。
Amazon VPC Lattice と AWS Gateway API コントローラーのご紹介:Kubernetes Gateway API の実装
AWS は Amazon Virtual Private Cloud (Amazon VPC) の新機能である Amazon VPC Lattice の一般提供を発表しました。サービス間通信の接続、保護、監視をおこなう一貫した方法が提供されます。Amazon VPC Lattice の提供の一環として、Kubernetes Gateway API の実装である AWS Gateway API コントローラー を紹介します。
AWS Lambda レスポンスストリーミングの紹介
本記事は、Introducing AWS Lambda response streaming の翻訳です。 本 […]
アマゾンプライムデー 2022 – AWSによる勝利への貢献
アマゾンプライムデーの実施にあたって、その裏側でどのようにAWSのサービスが活用されたかをご紹介します。
ソースコードを自動生成する Amazon CodeWhisperer でアクセンチュアが開発生産性を向上させた方法
Amazon CodeWhisperer は、統合開発環境 (IDE) で記載されたコードやコメントから提案コ […]
Amazon EKS で CNI カスタムネットワーキングと Pod セキュリティグループを活用する
この記事は Leveraging CNI custom networking alongside securi […]
大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ
本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。
低コストで高性能な生成系 AI 推論用の Amazon EC2 Inf2 インスタンスが一般公開されました
深層学習 (DL) のイノベーション、特に大規模言語モデル (LLM) の急速な成長は、業界を席巻しました。D […]
個人で無料で使用できる Amazon CodeWhisperer が一般公開されました
現在、リアルタイム AI コーディングのコンパニオンである Amazon CodeWhisperer が一般公 […]
週刊AWS – 2023/4/10週
週刊AWS 2023/4/10週号: Amazon Bedrockの限定プレビュー開始、Amazon EC2 Inf2/Trn1nインスタンスの一般利用開始、Amazon CodeWispererの一般利用開始と個人開発者への無料化、などなどを取り上げています