Amazon Web Services ブログ

Category: Learning Levels

AWS Backup を使用して Amazon S3 のオブジェクトをリストアするときに、最終更新日時のタイムスタンプを保持する

Amazon S3 オブジェクトを AWS Backup でリストアする際に最終更新日時のタイムスタンプを保存する方法

通常、規制の厳しい業界のお客様は、データの整合性を維持し、ライフタイム全体を通じて利用できるよう義務付けられた規則に従っています。整合性要件を満たすためには、関連する任意の監査証跡やオブジェクト作成日時、最終更新日時、タグなどのメタデータ情報と共にデータはリストア可能でなければなりません。

Amazon Location Service を利用した効率的なトラックルーティング

トラックは毎日、何百万トンもの物資を全国に輸送しています。その効率的なルーティングは、物流企業の収益だけでなく、経済全体にも大きな影響を与えます。効率的なトラックルーティングは、輸送・物流業界にとって不可欠な要素であり、トラックにとって最も効率的なルートを戦略的に計画し、物資を輸送することにつながります。その主な目的は、タイムリーな配送と資源の最大活用を確保しながら、移動距離を減らすことです。トラックのルートを最適化することで、物流会社は業務の効率性と収益性を大幅に向上させることができます。本記事では、Amazon Location Service のトラックルーティング機能についてご紹介します。この機能は、HERE Technologies の提供する正確で新鮮かつ堅牢なデータを活用し、物流企業の目標達成を支援します。

大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス

Amazon SageMaker Training で 大規模言語モデル(LLM) の学習を成功させるための Tips とベストプラクティスについて深く掘り下げます。本記事では、LLM 学習ワークロードのすべてのフェーズをカバーし、関連するインフラ機能とベストプラクティスについて説明しています。これらのベストプラクティスにより、SageMaker 上で数千万から数億のパラメータ規模の LLM をトレーニングすることができます。

大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ

本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。

Amazon S3 File Gateway による大規模データ移行とコスト削減

データをクラウドに移行するには、さまざまなタイプのデータ移行経験や、ソースデータ構造やメタデータを保持する仕組みが必要です。お客様はオンプレミスのファイルデータを従来のファイルサーバーに格納する際、データライフサイクル管理等の理由でデータ作成時のタイムスタンプを併せて保持することが多くあります。一方でお客様は、データ構造やメタデータを保持しハイブリッドクラウド構成をサポートするような、クラウドへの移行方法を悩まれているのではないでしょうか。その結果として、お客様はコストやパフォーマンス、スケールなど、クラウドストレージのメリットを最大限享受できなくなります。

Amazon OpenSearch Service のパフォーマンストラブル解決のためのファーストステップ

Amazon OpenSearch Service を運用していく中で、クラスター構成やインデックス設定がワークロードに適していないことでパフォーマンスの問題が生じることがあります。短期的にはクラスタのスケールといった対処も必要ですが、原因を精査することがその後の運用において重要です。本記事では、パフォーマンストラブルが起きた際に確認すべきポイントを、順を追って紹介していきます。各ポイントは質問の形式で記載されているので、質問への回答を作成しながら根本原因の調査や、対処を検討するための参考情報を整理することができます。

AWS Step Functionsを使用してオンプレミスの機械学習コードを Amazon SageMaker に取り込む

この記事では、オンプレミス環境で作成された機械学習コードを、最小限のリファクタリングで AWS 環境に移行し、またAWS内の機械学習サービス Amazon SageMaker の機能を最大限活用する方法について解説します。
非効率であることは分かりつつも修正の時間を取ることができないようなケースにおいて、Amazon SageMaker と AWS Step Functions を用いてデータサイエンティストと MLOps エンジニアという 2 人の開発者がどのようにリフトアンドシフトするのかを説明していきます。

AWS CDK Pipelines を用いたマルチブランチ管理とインフラのデプロイ

この記事では、AWS Cloud Development Kit (AWS CDK) を用いて GitFlow モデルに従って開発するための AWS CDK Pipelines モジュール の利用方法について説明します。ソフトウェア開発チームはソリューション開発のライフサイクルの中で厳格なブランチ戦略に従うことがよくあります。GitFlow モデルによるインフラのプロビジョニングにより、開発者はアプリケーションの同じスタック内であっても互いに独立して同時並行的に作業することができます。