Amazon Web Services ブログ

Category: News

新機能 — Amazon SageMaker Pipelines が機械学習プロジェクトに DevOps 機能を提供

本日、 Amazon SageMaker Pipelines を発表することができまして、大変うれしく思います。これは Amazon SageMaker の新機能で、データサイエンティストやエンジニアが、エンドツーエンドの機械学習パイプラインを簡単に構築、自動化、スケールできるようになります。 機械学習 (ML) はもともと試験段階にあり、本質的に予測することはできません。数日から数週間かけてさまざまな方法でデータを分析および処理します。これは、ジオード (晶洞石) を壊して、貴重な宝石を見つけようとする作業のようです。次に、さまざまなアルゴリズムとパラメータを試しながら、最高の精度を求めて多くのモデルをトレーニングおよび最適化します。この作業は通常、アルゴリズムとパラメータの間に依存関係がある多くの異なる手順を伴い、手作業で管理するため、とても複雑になる可能性があります。特に、モデル系列の追跡は簡単ではなく、監査性やガバナンスを妨げます。最後に、上位モデルをデプロイし、参照テストセットに対するモデルの評価を行います。最後に、 と言いましたが、実際には何度も反復して、新しいアイデアを試し、新しいデータでモデルを定期的に再トレーニングします。 ML がどんなにエキサイティングであっても、残念ながら多くの繰り返し作業を伴います。小規模なプロジェクトでも、本番環境に移る前には何百もの手順が必要になります。こうした作業のせいで、時間の経過とともにプロジェクトの楽しさや興奮が失われていくだけでなく、監視する必要性やヒューマンエラーの可能性が大きくなります。 手作業を軽減し、トレーサビリティを向上させるために、多くの ML チームでは DevOps の理念を採用し、継続的インテグレーションと継続的配信 (CI/CD) 用のツールとプロセスを実装しています。確かにこれは正しい手順といえますが、独自のツールを作成することで、当初の予想よりも多くのソフトウェアエンジニアリングとインフラストラクチャ作業が必要な複雑なプロジェクトとなる場合が多いです。貴重な時間とリソースが実際の ML プロジェクトから奪われ、革新のペースがスローダウンします。残念ながら一部のチームでは、手作業でのモデルの管理、承認、デプロイに戻ることにしました。 Amazon SageMaker Pipelines のご紹介 簡単に言うと、Amazon SageMaker Pipelines で、ML プロジェクトの DevOps がトップレベルになります。この新機能により、データサイエンティストや ML デベロッパーは、自動化された、信頼性の高いエンドツーエンドの ML パイプラインを簡単に作成できるようになります。SageMaker は通常どおり、すべてのインフラストラクチャを完全に管理するため、お客様が作業を行う必要はありません。 Care.com は、高品質の介護サービスを見つけて管理するための世界をリードするプラットフォームです。Care.com のデータサイエンスマネージャーの Clemens Tummeltshammer 氏は次のように言います「 需要と供給が均衡な、力のある介護業界は、個々の家庭から国の GDP にいたる経済成長にとって不可欠です。私たちは Amazon SageMaker Feature Store と […]

Read More

機械学習用のデータを準備するためのビジュアルインターフェイス、Amazon SageMaker Data Wrangler のご紹介

本日、Amazon SageMaker の新たな機能であるAmazon SageMaker Data Wranglerを発表できることを非常に嬉しく思います。これを利用することで、データサイエンティストやエンジニアは、ビジュアルインターフェイスを使用した機械学習 (ML) アプリケーションのデータ準備をより速く行うことができます。 データサイエンティストと機械学習エンジニアのグループに、機械学習における問題の調査に実際、どのくらい時間を費やすのかを尋ねるたびに、私はよく多くのため息と、それに続く「運が良ければ 20% です」というせりふに沿った答えを聞きます。その理由を尋ねると、答えはいつでも同じです、「データ準備に、常に時間の 80% を費やしています。」 実際、トレーニングのためのデータ準備は、機械学習のプロセスにおける重要なステップであり、そこで下手な仕事をしようとは誰も考えないでしょう。一般的なタスクは次のとおりです。 データの特定: 未加工データの格納場所の検索、データへのアクセス データの可視化: データセット内の各列の統計的性質の検証、ヒストグラムの構築、外れ値の調査 データのクリーニング: 重複の削除、欠損値のエントリの入力または削除、外れ値の削除 データの強化および特徴エンジニアリング: 列の処理によるより表現力のある特徴データの構築、トレーニングのための特徴データのサブセットの選択 新しい機械学習プロジェクトの初期段階において、これは直感と経験が大きな役割を果たす高度な手動プロセスです。データサイエンティストは、多くの場合、pandas や PySpark などのオープンソースツールやオープンソースツールの組み合わせを使用して、さまざまなデータ変換の組み合わせを試し、モデルをトレーニングする前にデータセットを処理します。その後、予測結果を分析し、反復処理を行います。同じくらい重要ですが、このプロセスを何度も繰り返しループするのは、時間がかかり面倒であると同時に、エラーが発生しやすくなります。 ある時点で、適切なレベルの精度 (または選択した他のすべてのメトリクス) に達すると、本番環境の完全なデータセットでトレーニングしたいと考えるでしょう。しかし、まずはサンドボックス内で実験した正確なデータ準備のステップを再現および自動化する必要があります。残念ながら、この作業のインタラクティブな性質を考慮すると、慎重に文書化していても、常にエラーの余地があります。 最後に大事なことですが、最終段階に進む前に、データ処理インフラストラクチャを管理および拡張する必要があります。今考えれば、このすべてを行うには、80% の時間では十分ではないかもしれません。 Amazon SageMaker Data Wrangler のご紹介 Amazon SageMaker Data Wrangler は、機械学習用に完全に管理された統合開発環境 (IDE) である Amazon SageMaker Studio に統合されています。数回クリックするだけで、データソースへの接続、データの探索と視覚化、組み込み変換および独自の変換の適用、自動生成されたスクリプトへの結果コードのエクスポート、マネージドインフラストラクチャでの実行が可能です。各ステップをより詳しく見ていきましょう。 もちろん、データ準備は、データを特定してアクセスすることから始まります。SageMaker Data Wrangler を使用すると、導入してすぐに Amazon Simple Storage Service […]

Read More

Amazon SageMaker JumpStart で事前構築済みモデルと機械学習ソリューションへのアクセスを簡素化する

本日、Amazon SageMaker の新機能である Amazon SageMaker JumpStart の提供を開始したことを発表します。人気の高いモデルのコレクション (別名「モデルズー」) および一般的なユースケースを解決するエンドツーエンドのソリューションに、ワンクリックでアクセスして機械学習ワークフローを高速化することができます。 近年、機械学習はビジネスプロセスの改善と自動化に役立つ技術であることが証明されています。実際、過去データでトレーニングされたモデルは、金融サービス、小売、製造、通信、ライフサイエンスといった幅広い業界において結果を高精度に予測できます。しかし、これらのモデルの使用には、データセットの準備、アルゴリズムの選択、モデルのトレーニング、精度の最適化、本番稼働環境へのデプロイ、パフォーマンスの経時的モニタリングといった、一部の科学者やデベロッパーだけが有しているスキルと経験が必要になります。 モデルの構築プロセスを簡素化するために、機械学習コミュニティは、モデルズーと呼ばれる、人気の高いオープンソースライブラリによるモデルのコレクションを作成しました。モデルズーは多くの場合、リファレンスデータセットで事前トレーニングされています。例えば、TensorFlow Hub や PyTorch Hub では、デベロッパーは多数のモデルをダウンロードして、コンピュータビジョンや自然言語処理などのアプリケーションに統合することができます。 モデルのダウンロードは第一歩にすぎません。デベロッパーはその後、TensorFlow Serving および TorchServe モデルサーバーといったさまざまなツール、または独自のカスタムコードを使用してモデルをデプロイし、評価とテストを行う必要があります。モデルを実行したら、デベロッパーは受信データの適切な形式を把握する必要があります。これは以前からの悩みの種です。毎回ここで頭を抱えているのは私だけではないでしょう。 もちろん、完全な機械学習アプリケーションには通常、多くの不確定要素があります。データを事前処理して、バックエンドから取得した追加データでエンリッチメントを行い、モデルに投入する必要があります。予測は多くの場合、後処理され、さらなる分析や視覚化を行うために保存されます。モデルズーは有用ですが、役に立つのはモデリング段階でのみです。完全な機械学習ソリューションが提供できるようになるまでにデベロッパーが行うべき作業は、まだたくさんあります。 そのため、機械学習エキスパートには、プロジェクトのバックログが殺到します。一方で経験の少ないプラクティショナーは、開始するまでに苦労します。これらの障壁は大変苛立たしいものです。お客様からもこの問題への対処を求められました。 Amazon SageMaker JumpStart のご紹介 Amazon SageMaker JumpStart は、機械学習用の完全な統合開発環境 (IDE) である Amazon SageMaker Studio に統合されているため、モデルやソリューションなどを直感的に見つけることができます。ローンチ時の SageMaker JumpStart には、以下が含まていれます。 不正検出や予知保全といった、一般的な機械学習ユースケースに対応する 15 以上のエンドツーエンドソリューション コンピュータビジョン (画像分類、物体検出) および自然言語処理 (文章分類、質問応答) に対応する、TensorFlow Hub および PyTorch Hub で公開されている 150 以上のモデル […]

Read More

AWS Audit Manager で監査の準備を簡素化

タイムリーにエビデンスを収集して監査をサポートしたいとお考えではないでしょうか。しかしこれは手作業のためエラーが発生しやすく、場合によっては分散プロセスとなり、非常に困難な課題と化すおそれがあります。ビジネスがコンプライアンス要件の対象となる場合、監査の準備によって生産性が大幅に低下し、結果的に中断を余儀なくされる場合もあります。また、オンプレミスのレガシーシステム用に設計された従来の監査プラクティスをクラウドインフラストラクチャに適用する際に、問題が発生することも考えられます。 一般データ保護規則 (GDPR)、医療保険の携行と責任に関する法律 (HIPAA)、ペイメントカード業界データセキュリティスタンダード (PCI DSS) といった、進化する複雑な規制やコンプライアンス標準に対応するには、エビデンスを収集、検証、統合する必要があります。 また、AWS 使用量が、進化するコンプライアンス制御の要件にどのようにマッピングされているかを、常に再評価し続ける必要があります。要件を満たすには、データの暗号化がアクティブになっていたことを示す必要があり、さらに、サーバー設定の変更を示すログファイル、アプリケーションの高可用性を示す図、必要なトレーニングを完了したことを示すトランスクリプト、ソフトウェア使用量がライセンスの規定を超えていないことを示すスプレッドシートなども必要になる場合があります。この作業は、時には数十人のスタッフやコンサルタントを巻き込んで、数週間続きます。 AWS Audit Manager は、監査の準備に役立つフルマネージド型サービスです。一般的な業界標準および規制に適合する事前構築済みフレームワークを提供し、エビデンスの継続的な収集を自動化できます。今すぐに利用可能です。AWS リソースの使用に関するエビデンスの継続的かつ自動的な収集によって、リスク評価や規制および業界標準へのコンプライアンスを簡素化できます。また、監査に備えた体制を継続的に維持できるようになり、より迅速で中断の少ない準備プロセスを実施できます。 カスタマイズ可能な組み込みのフレームワークにより、クラウドリソースの使用状況をさまざまなコンプライアンス標準の制御にマッピングし、監査に適した用語を使用して、エビデンスを監査に備えたイミュータブルな評価レポートに変換できます。また、オンプレミスのインフラストラクチャの詳細や、ビジネス継続性計画、トレーニングのトランスクリプト、ポリシー文書などの追加のエビデンスを検索、フィルタリング、アップロードして、最終的な評価に含めることも可能です。 通常、監査の準備には複数のチームが関与します。そこで、委任ワークフロー機能を使用すれば、対象分野のエキスパートに管理を割り当ててレビューを行わせることが可能になります。例えば、ネットワークセキュリティに関するエビデンスのレビューを、ネットワークセキュリティエンジニアに委任できます。 最終版評価レポートには、要約統計量と、関連するコンプライアンスフレームワークの正確な構造に従って整理されたすべてのエビデンスファイルが入ったフォルダが含まれます。エビデンスが収集されて単一の場所に整理されるとすぐにレビュー可能になるため、監査チームはより簡単にエビデンスを検証し、質問に回答し、修復計画を追加できるようになります。 Audit Manager の開始方法 まず、新規の評価を作成して設定しましょう。Audit Manager コンソールのホームページで [Launch AWS Audit Manager (AWS Audit Manager を起動)] をクリックすると、[Assessments (評価)] リストに移動します (コンソールのホーム左側のナビゲーションツールバーからもアクセス可能)。そこで [Create assessment (評価を作成)] をクリックして、新規の評価の設定ウィザードを開始します。まず、評価に名前を付け、オプションで説明を入力します。次に、評価に関連付けられたレポートを保存する Amazon Simple Storage Service (S3) バケットを指定します。 次に、評価のフレームワークを選択します。さまざまな事前構築済みフレームワークや、自分で作成したカスタムフレームワークから選択することができます。カスタムフレームワークは一から作成することもできますが、既存のフレームワークに基づいて作成することもできます。ここでは、事前構済みの PCI DSS フレームワークを使用します。 [Next (次へ)] をクリックすると、評価の対象とする AWS アカウントを選択できます (Audit […]

Read More

新発表 — Amazon EMR on Amazon Elastic Kubernetes Service (EKS)

数万社のお客様が、Amazon EMR を使用して、Apache Spark、 Hive、HBase、Flink、Hudi、および Presto などのフレームワークでビッグデータ分析アプリケーションを大規模に実行しています。EMR は、これらのフレームワークのプロビジョニングとスケーリングを自動化し、さまざまな EC2 インスタンスタイプでパフォーマンスを最適化して、価格とパフォーマンスの要件を満たします。お客様は現在、Kubernetes を使用して組織全体でコンピューティングプールを統合しています。Amazon Elastic Kubernetes Service (EKS) で Apache Spark を管理しているお客様の一部には、EMR を使用して、フレームワークのインストールと管理、AWS のサービスとの統合などの手間のかかる作業を排除したいと考えているお客様もいらっしゃいます。さらに、EMR が提供するより高速なランタイムや開発およびデバッグのツールも活用したいと考えています。 本日、Amazon EMR on Amazon EKS の一般提供を発表いたします。これは、EMR の新しいデプロイオプションであり、EKS でのオープンソースのビッグデータフレームワークのプロビジョニングと管理を自動化できます。EKS で EMR を使用すると、同じ EKS クラスターで Spark アプリケーションを他のタイプのアプリケーションとともに実行し、リソース使用率を向上させ、インフラストラクチャ管理を簡素化することができます。 他のタイプのアプリケーションと同じ EKS クラスタに EMR アプリケーションをデプロイできるため、リソースを共有し、すべてのアプリケーションを運用および管理する単一のソリューションで標準化できます。最新のフレームワークへのアクセス、パフォーマンスが最適化されたランタイム、アプリケーション開発用の EMR Notebooks、デバッグ用の Spark ユーザーインターフェイスなど、現在 EC2 で使用しているのと同じ EMR 機能をすべて EKS で利用できます。 Amazon EMR は、アプリケーションをビッグデータフレームワークを使用してコンテナに自動的にパッケージ化し、他の […]

Read More

PennyLane on Braket + フォールトトレラントな量子コンピューティングに向けた進歩 + テンソルネットワークシミュレータ

昨年、初めて Amazon Braket について書き、量子コンピューティングの使用を開始するように皆さんをご招待しました! そのリリース以降、当社は前進を続け、Amazon Braket にいくつかの重要で強力な新機能を追加しました。 2020 年 8 月 – D-Wave、IonQ、および Rigetti から量子コンピューティングハードウェアへのアクセスを備えた Amazon Braket の一般提供。 2020 年 9 月 – D-Wave の Advantage 量子処理装置 (QPU) へのアクセス。これには、5,000 を超える量子ビットと 15-way 接続が含まれています。 2020 年 11 月 – リソースのタグ付け、AWS PrivateLink、量子ビットの手動割り当てのサポート。最初の 2 つの機能を使用すると、既存の AWS アプリケーションを Amazon Braket で構築した新しいアプリケーションに簡単に接続できます。また、本稼働クラスのクラウドベースの量子コンピューティングアプリケーションの将来像を思い描くのに役立つはずです。最後の機能は、研究者にとって特に興味深いものです。私が理解しているところによれば、量子コンピューティングハードウェアの特定の部分内にある特定の量子ビットは、量子回路の一部として使用される際にそれらがいくらか優れた性能を発揮する可能性のある個別の物理的特性および接続特性を有する可能性があります。詳細については、QPU デバイスでの量子ビットの割り当てで確認できます (これは、コンパイラが頻繁に使用する変数に CPU レジスタを割り当てる方法とある程度類似しています)。 私の最初のブログ記事では、Caltech に隣接する AWS 量子コンピューティングセンターの設立も発表しました。 これを書いている時点では、私たちは、Noisy […]

Read More

Amazon CodeGuru の新機能 – Python サポート、Security Detector、および Memory Profiling

Amazon CodeGuru は、コードの品質を向上させるデベロッパーツールであり、次の 2 つの主要コンポーネントで構成されています。 CodeGuru Reviewer は、プログラム分析と機械学習を使用して、コード内で見つけにくい潜在的な欠陥を検出し、改善のための提案を提供します。 CodeGuru Profiler は、ライブアプリケーションからランタイムパフォーマンスデータを収集し、アプリケーションのパフォーマンスを微調整するのに役立つ視覚化と推奨事項を提供します。 本日は、3 つの新機能を発表いたします。 CodeGuru Reviewer および CodeGuru Profiler 用の Python のサポート (プレビュー) – CodeGuru を使用して Python で記述されたアプリケーションを改善できるようになりました。このリリース以前には、CodeGuru Reviewer は Java コードを分析でき、CodeGuru Profiler は Java 仮想マシン (JVM) で実行されるアプリケーションをサポートしていました。 CodeGuru Reviewer 用の Security Detector – CodeGuru Reviewer 用の新しい検出機能セットで、セキュリティの脆弱性を特定し、Java コード内のセキュリティのベストプラクティスをチェックします。 CodeGuru Profiler 用の Memory Profiling – 時間の経過に伴うオブジェクトタイプごとのメモリ保持の新しいビジュアライゼーションです。これにより、メモリリークを検出し、アプリケーションによるメモリの使用を最適化することが容易になります。 これらの機能をもっと詳しく見てみましょう。 […]

Read More

準備中 — オーストラリアのメルボルンの AWS リージョン

当社は、2020 年にイタリアと南アフリカで新しい AWS リージョンを立ち上げました。そして現在、インドネシア、日本、スペイン、インド、およびスイスのリージョンについての準備を進めています。 2020 年のオーストラリアのメルボルン 本日は、アジアパシフィック (メルボルン) リージョンのオープン準備に入りましたことをお知らせいたします。2022 年後半には、3 つのアベイラビリティーゾーンを備えてオープン予定です。アジアパシフィック (シドニー) リージョンに加えて、オーストラリアにはすでに 7 つの Amazon CloudFront エッジロケーションがあり、シドニーのリージョナルエッジキャッシュによってバックアップされています。 これは、オーストラリアで 2 番目のリージョンとなるとともに、アジアパシフィックでは 9 番目のリージョンとなり、既存のオーストラリア、中国、インド、日本、韓国、およびシンガポールの各リージョンに続くリージョンとなります。現在、24 の AWS リージョン内で 77 のアベイラビリティーゾーンが稼働しているほか、さらに 18 のアベイラビリティーゾーンと 6 つのリージョン (このリージョンを含む) の準備が進められています。 当社の Climate Pledge に関する取り組みの一環として、Amazon は 2040 年までにネットゼロカーボンを達成するという目標の一環として、当社の事業で必要とするエネルギーを 2025 年までに 100% 再生可能エネルギーでまかなうための道のりを歩んでいます。この目的のために、当社は、オーストラリアにおいて、165 MW の容量と年間 392,000 MWh の発電能力を備えた 2 つの再生可能エネルギープロジェクトに投資しました。 新しいリージョンでは、オーストラリア内の地理的に分離された場所にバックアップデータを格納する機能など、追加のアーキテクチャオプションがお客様 (およびオーストラリアにおける数十万のアクティブな他の AWS […]

Read More

新機能 – AWS Well-Architected Tool の SaaS レンズ

安全性、耐障害性、および効率性に優れた高パフォーマンスソリューションの AWS での構築を支援するため、AWS は 2015 年に AWS Well-Architected Framework を一般公開しました。これは、1 部のホワイトペーパーとしてスタートしましたが、ドメイン固有のレンズ、ハンズオンラボ、およびワークロードを定期的に評価し、高リスク問題を識別して、改善点を記録するメカニズムを提供する AWS Well-Architected Tool (AWS マネジメントコンソールから無料でご利用いただけます) に拡大されました。 ワークロード固有のアドバイスをより多く提供するため、2017 年には「レンズ」の概念でフレームワークを拡張し、一般的な見解の枠を超えて、特定のテクノロジー分野に参入しました。現在、Software-as-a-Service (SaaS) ソリューションの構築を促進するために、AWS SaaS Factory チームが新しい AWS Well-Architected SaaS レンズ を構築する取り組みを先導しています。 SaaS は、ソフトウェアがプロバイダーによって一元的に管理およびホストされ、サブスクリプションベースで顧客に提供されるライセンス供与/デリバリーモデルです。このモデルの使用により、ソフトウェアプロバイダーは迅速に革新し、コストを最適化して、運用効率性を向上させることができます。それと同時に、顧客側もシンプル化された IT 管理、スピード、および使用分の料金だけを支払うというビジネスモデルのメリットを活かすことができます。 Well-Architected SaaS レンズは、SaaS ワークロード向けにカスタマイズされ、SaaS ワークロードの開発と運用に対するクリティカルシンキングを促進することを目的とした質問をツールに追加します。各質問にはベストプラクティスのリストがあり、各ベストプラクティスにはそれらを実施するために役立つ改善計画のリストがあります。何千人ものソフトウェアデベロッパーや AWS パートナーと連携してきた AWS SaaS Factory Program の AWS ソリューションアーキテクチャは、これらの Well-Architected パターンを AWS で SaaS アーキテクチャを構築して運用するための重要な要素として認識しています。 Well-Architected Tool […]

Read More

現在準備中 – 2020年に 3 つ、2021年には 12 のさらなる AWS ローカルゾーンが開設

私たちは、昨年 12 月にロサンゼルスで最初の AWS ローカルゾーン を立ち上げ、2020 年 8 月に 2 つ目のローカルゾーン (ロサンゼルス) を追加 しました。私は最初の記事で、より多くの地理的な領域へのローカルゾーンの追加を検討することになるだろうという Andy Jassy の発言を引用しました。 お客様は、これらのゾーンの EC2 インスタンスおよびその他のコンピューティングサービスを使用して、特にアーティストワークステーション、ローカルレンダリング、スポーツ放送、オンラインゲーム、金融取引処理、機械学習の推測、バーチャルリアリティ、拡張現実アプリケーションなどをホストしています。これらのアプリケーションは、地理的な近接性によって可能になる極めて低いレイテンシーの恩恵を受けます。 追加のローカルゾーン 本日、さらに 3 つのローカルゾーンを開設し、2021 年にはさらに 12 のローカルゾーンが開設予定であることをお知らせできることを嬉しく思います。 ボストン、ヒューストン、マイアミのローカルゾーンがプレビューフォームで利用できるようになりました。今すぐアクセスをリクエストできます。2021 年には、ニューヨーク市、シカゴ、アトランタなどの主要都市および大都市圏にローカルゾーンを開設する予定です。 米国本土の大多数のユーザーに 1 桁のミリ秒のレイテンシーでアクセスを提供することを目標として、ターゲットとなる都市を選択しています。アプリケーションの最もレイテンシーの影響を受けやすい部分をローカルゾーンにデプロイすることで、ユーザーに素晴らしいパフォーマンスを提供できます。上記のユースケースに加えて、まだ想像や構築されていないさらに多くのものが見れることを期待しています。 ローカルゾーンの使用 最初の投稿では、ローカルゾーンを使用するプロセスをステップスルーしました。そこで述べたすべてが引き続き適用できます。するべきことは、次のとおりです。 プレビューへのアクセスをリクエストし、返信を待ちます。 ローカルゾーンの新しい VPC サブネットを作成します。 EC2 インスタンスを起動し、EBS ボリュームを作成して、アプリケーションをデプロイします。 知っておくべきこと ここでは、新しいローカルゾーンおよび今後のローカルゾーンについて知っておくべきことをいくつか紹介します。 インスタンスタイプ – ローカルゾーンには、C5、R5、T3、G4 など、さまざまな EC2 インスタンスタイプがあります。 モデルの購入 – コンピューティングキャパシティをローカルゾーンにおいてオンデマンドで使用できます。また、Savings Plan を購入して、割引を適用できます。一部のローカルゾーンは、スポットインスタンスの使用もサポートしています。 AWS […]

Read More