Amazon Web Services ブログ
Category: Learning Levels
ONNX Runtime を使った AWS IoT Greengrass 上での画像分類の最適化
演算能力とメモリが限られているエッジデバイスに機械学習のモデルを展開する場合、開発者は、望ましいパフォーマンスを達成するためにモデルを手動でチューニングするという課題を抱えています。このブログポストでは、AWS IoT Greengrass 上の ONNX Runtime を使用して、エッジでの画像分類を最適化する方法の例について紹介します。
Amazon DynamoDBにおけるコスト最適化に向けたリザーブドキャパシティの算出方法
本記事は、VMwareのデータサイエンティストであるSanjna Srivatsaとの共同執筆です。 Amaz […]
AWS Lake Formationのタグを使用して直接IAMプリンシパルとのクロスアカウント共有を有効化
この記事は、Enable cross-account sharing with direct IAM prin […]
Amazon CloudWatch アラームの大規模なクリーンアップを自動化する
このブログでは、CloudWatch で価値の低いアラームのクリーンアップメカニズムを AWS アカウントのリージョン全体に大規模にデプロイする方法を探り、さまざまな種類の設定ミスや価値の低いアラームを特定することによって、お客様が CloudWatch アラームのコストを最適化するのに役立つメカニズムについて説明します。
AWS DataSync を使用して Amazon FSx for NetApp ONTAP にファイル共有を移行する
データ移行を計画する際には、移行ツールを評価し、オンライン移行に利用可能な帯域幅があるかどうかを判断し、移行元と移行先の特性を理解する必要があります。オンプレミスのストレージや他の AWS ストレージサービスから Amazon FSx for NetApp ONTAP にデータを移行する場合、移行元が NetApp ONTAP ではない、あるいは SnapMirror ライセンスを持っていない場合があります。 FSx for ONTAP に移行する場合、移行戦略の一環としてボリュームデータの階層化ポリシーの特性を考慮する必要があります。
カスタムメトリクスに基づいた Application Auto Scaling による Amazon ECS サービスのオートスケール
Application Auto Scaling は、Amazon Elastic Container Service (Amazon ECS) サービス、Amazon DynamoDB テーブル、AWS Lambda のプロビジョニングされた同時実行などのスケーラブルな AWS サービスに向けた、リソースを自動的にスケーリングするソリューションを必要とする開発者やシステム管理者向けのウェブサービスです。Application Auto Scaling では、Amazon CloudWatch のカスタムメトリクスに基づくスケーリングポリシーを使用して、このようなリソースをスケーリングできるようになりました。これらのメトリクスは、メトリクスの数学式に照らして評価されます。この記事では、この機能がどのように機能するかを、サンプルシナリオを使ってデモします。このシナリオでは、サービスが処理する HTTP リクエストの平均レートに基づいて、Amazon ECS サービスをスケーリングします。
AWS AppSync の Private API の紹介
AppSync の Private API の一般提供を発表します。Private API を使用すると、VPC やオンプレミスのデータセンターなどのプライベートネットワーク内のクライアントのみに、お客様の GraphQL API へのアクセスを制限できます。Private API へのリクエストは、インターネットを介さずに AWS のプライベートネットワークを経由して行われます。開始するには、AppSync で GraphQL API を作成する際に API を Private に設定し、API を呼び出す同じ AWS アカウント内の各 VPC にインターフェース VPC エンドポイントを作成します。また、AWS Direct Connect または AWS Site to Site VPN を使用して、オンプレミスネットワークからインターフェイスエンドポイントをホストする VPC へのプライベート接続を確立することができます。この接続により、オンプレミスデータセンターのクライアントは Private API を呼び出すことができます。
snow-transfer-tool により様々なサイズのファイルを AWS Snowball Edge へ移行する
アプリケーションや IT インフラストラクチャを AWS に移行する際は、既存のデータも移行する必要があります。移行するデータは移行元の環境に応じて変化し、ファイルサイズも多岐に渡ります。移行するデータの内、1 MB 未満のファイルが全体の 1 桁のパーセンテージ以上含まれていた場合、移行のパフォーマンスは低下する可能性があります。
glTF を 3D タイルに変換して AWS IoT TwinMaker で大規模モデルのストリーミングを実現する
AWS IoT TwinMaker で 3D シーンをロードするときに、長い待ち時間が発生したことがありますか? 複雑な 3D モデルを表示するときに、レンダリングパフォーマンスの低下に悩まされているのではないでしょうか。シーン内で効率的にストリーミングできるように、モデルを 3D タイル形式に変換する方法があります。
このブログでは、Cesium ion を使用して 3D モデルまたは点群ファイルを 3D タイルセットに圧縮する方法と、変換された 3D タイルセットを使用して TwinMaker シーンを作成する方法を学びます。3D タイルセットを使用すると、元のモデルサイズを 50% から 90% 縮小し、AWS IoT TwinMaker 搭載ダッシュボードのレンダリングパフォーマンスを向上させることができます。
Amazon SageMaker 上で AWS Inferentia2 と AWS Trainium を使って、低コストで高性能な生成系 AI 推論を実現
2023年5月4日、Amazon SageMaker が AWS Inferentia2 (ml.inf2) と AWS Trainium (ml.trn1) ベースの SageMaker インスタンスをサポートして、リアルタイムおよび非同期推論のための生成系 AI モデルをホストすることを発表しました。この記事では、大規模モデル推論 (LMI) コンテナを活用して、SageMaker を使用して AWS Inferentia2 に大規模な言語モデルをデプロイするプロセスを示します。