Amazon Web Services ブログ

re:Invent 2019 12月3日のまとめ

みなさん、こんにちは。アマゾン ウェブ サービス ジャパン、プロダクトマーケティング

シニアエバンジェリストの亀田です。re:Invent 2019 2日目(12月3日)が終了しました。本日はAndy JassyのKeynoteがあり、非常に多くのサービスが発表されました。re:Invent2019らしい一日でした。

またJapan Nightもおこなわれ会場は大きく盛り上がりました。弊社代表取締役社長の長崎による始球式

(ストライクチャレンジ中)

司会を務めさせていただくのもなんと4年目となりました。今年は会場も広く音量も適切で安心しました。

それでは早速本日のまとめです。

Amazon Kendraが発表されました

機械学習を活用した非常に正確で使いやすい新しいエンタープライズ検索サービスです。自然言語を使用したより直感的な検索方法を提供し、より正確な回答を返すので、エンドユーザーは会社全体に広がる膨大な量のコンテンツに保存されている情報を見つけることができます。ユーザーは、「産休はどれくらいですか」などの質問をすることができます。「14週間」、そしておそらく関連するであろう「VPNの設定方法」などの具体的な回答が得られます。プロセスを説明するドキュメントから特定の文章を抽出します。Kendraを使用すると、マニュアル、調査レポート、FAQ、HRドキュメント、カスタマーサービスガイドなどのコンテンツから正確な検索精度を提供できます。Kendraのプレビューには、SharePoint Online、Amazon S3、およびデータベース用の組み込みコネクタが用意されていますが、Kendra APIを使用して他のデータソースからデータを取り込むこともできます。将来的に、Kendraは、Box、Dropbox、Salesforce、OneDriveなどの他の一般的なデータソース用追加のコネクタを提供を予定しています。

Amazon Managed Apache Cassandra Serviceをプレビューリリースしました

Apache Cassandra互換のデータベースサービスであり、使用する同じCassandraアプリケーションコード、Apache 2.0ライセンスのドライバー、およびツールを使用してAWSクラウドでCassandraワークロードを実行することができます。テーブルは、実質的に無制限のスループットとストレージで、実際の要求トラフィックに基づいて自動的に拡大縮小できます。Amazon Managed Cassandra Serviceは、あらゆる規模で一貫した1桁ミリ秒のパフォーマンスを提供します。テーブルはデフォルトで暗号化され、データは耐久性と高可用性のために複数のAWSアベイラビリティーゾーンに複製されます。

Amazon EC2 M6g, C6g, and R6gがリリースされました

次世代のArmベースのAWS Graviton2プロセッサを搭載し最大40%の価格/パフォーマンスの向上を実現します。64ビットArm Neoverseコアを使用する新しいAWS Graviton2プロセッサと、AWSが設計した高度な7ナノメートル製造技術を使用して構築されたカスタムシリコンを使用しています。AWS Graviton2プロセッサは、第7世代のパフォーマンス、4倍の計算コア、コアあたり2倍のプライベートキャッシュ、5倍の高速メモリなど、第一世代のAWS Gravitonプロセッサに比べていくつかのパフォーマンス最適化を提供します。コアあたり2倍の浮動小数点パフォーマンス。さらに、完全に暗号化された常時オンのDDR4メモリを備え、セキュリティをさらに強化し、コアごとの暗号化パフォーマンスを50%高速化します。

Amazon EKSでAWS Fargateがリリースされ、サーバレスのKubernetesポッドが実行できるようになりました

Amazon Elastic Kubernetes Service(EKS)は、AWSでKubernetesを簡単に実行できるマネージドサービスです。AWS Fargateは、Amazon EKSクラスターの一部としてKubernetesポッドとして実行されるコンテナに、オンデマンドで適切なサイズの計算能力を提供します。Fargateを使用して、Kubernetesポッドは、要求された計算能力だけで実行され、各ポッドは他のポッドとリソースを共有することなく、独自のVM分離環境で実行されます。実行したポッドに対してのみ料金を支払うことで、追加の作業なしでアプリの使用率とコスト効率を改善します。

Amazon Elasticsearch ServiceのUltraWarmがプレビューリリースされました

Amazon Elasticsearch Serviceは、パフォーマンスが最適化されたウォームストレージ層であるUltraWarmを提供するようになりました。UltraWarmでは、ElasticsearchとKibanaを使用して、既存のAmazon Elasticsearch ServiceホットストレージオプションよりもGBあたりのコストを最大90%削減しながら、データを保存してインタラクティブに分析できます。UltraWarmを使用して、Amazon Elasticsearch Serviceはホットウォームドメイン構成をサポートするようになりました。ホットストレージは、インデックス作成とデータへの最速のアクセスを提供するために使用されます。UltraWarmは、同じインタラクティブな分析エクスペリエンスを維持しながら、アクセス頻度が低い古いデータ用の安価で耐久性のあるストレージでホットストレージを補完します。

Amazon Fraud Detectorがプレビューリリースされました

オンライン支払い詐欺や偽アカウントの作成など、潜在的に不正なオンラインアクティビティを簡単に特定できます。Fraud Detectorは、機械学習(ML)とAWSおよびAmazon.comの20年にわたる不正検出の専門知識を使用して、不正行為の可能性を自動的に特定し、より多くの不正行為を迅速に発見できるようにします。

Amazon Redshiftが独立したコンピューティングとストレージのスケーリングを可能にする管理ストレージを備えたRA3ノードをリリースしました

コンピューティングとストレージを個別にスケーリングして料金を支払うことができ、コンピューティングのニーズのみに基づいてクラスターのサイズを変更できます。これで、さらに多くのデータをコスト効率よく分析できます。AWS Nitro System上に構築されており、ベアメタルと見分けがつかない高帯域幅ネットワーキングとパフォーマンスを備えており、ローカルキャッシュとして非常に大きく高性能なSSDを使用します。

Amazon CodeGuru がプレビューリリースされました

コードレビューを自動化し、アプリケーションで最も実行コストの高いコード行を特定し、コードを修正または改善する方法に関するインテリジェントな推奨事項を受け取りたい開発チーム向けの新しい機械学習サービスです。CodeGuru Reviewerは、スレッドセーフの問題、非サニタイズされた入力の使用、機密データの不適切な処理、リソースリークなど、ソースコード内の広範な問題を検出してフラグを付けます。また、AWS APIおよびSDKを使用するためのベストプラクティスからの逸脱を検出し、ページネーションの欠落の検出やバッチ操作でのエラー処理など、本番の問題につながる可能性のある一般的な問題にフラグを立てます。CodeGuru Profilerは、常にアプリケーションパフォーマンスの最適化を検索し、高価なオブジェクトの過剰な再作成、高価なデシリアライゼーション、非効率的なライブラリの使用、過剰なロギングなどの問題を修正する方法を推奨しています。CodeGuru Profilerは本番環境で継続的に実行され、最小限のCPU容量を消費するため、アプリケーションのパフォーマンスに大きな影響を与えません。

Amazon SageMakerは、データ処理とモデル評価ワークロードを実行するマネージドソリューションであるAmazon SageMaker Processingをサポートしました

前処理または後処理を実行し、完全に管理されたエクスペリエンスでモデル評価ワークロードを実行するためのAmazon SageMakerの新しい機能です。Amazon SageMaker Processingを使用すると、組み込みのデータ処理コンテナを使用したり、独自のコンテナを持ち込んでカスタムジョブを送信して管理インフラストラクチャで実行したりする柔軟性が得られます。送信されると、Amazon SageMakerは計算インスタンスを起動し、入力データを処理および分析し、完​​了時にリソースを解放します。

AWS Wavelengthがアナウンスされました

通信プロバイダーの5Gネットワ​​ークのエッジにAWSコンピューティングおよびストレージサービスを組み込んでおり、地域の幅広いAWSサービスへのシームレスなアクセスを提供します。AWS Wavelengthを使用すると、ゲームやライブビデオストリーミング、エッジでの機械学習の推論、拡張現実や仮想現実など、5Gネットワ​​ーク上で1桁のミリ秒のレイテンシを持つモバイルエンドユーザーとデバイスに対応するアプリケーションを構築できます。アプリケーションを5Gエッジにデプロイするには、Amazon Virtual Private Cloud(VPC)をWavelength Zoneに拡張してから、Amazon Elastic Compute Cloud(EC2)インスタンスやAmazon Elastic Block Storage(EBS)ボリュームなどのAWSリソースを作成します。AWSは、Verizon、Vodafone、SK Telecom、KDDIなどの世界中の大手通信会社と提携して、2020年に北米、ヨーロッパ、日本、韓国でWavelengthを開始します。

Amazon SageMakerがDeep Graph Library(DGL)をサポートしました

DGLを使用すると、Graph Neural Networks(GNN)を使用して、推奨、不正検出、および創薬システムの予測精度を向上させることができます。GNNは研究で有望な結果を示していますが、実際のアプリケーションでの使用は、大きなグラフをトレーニングするために必要な複雑なインフラストラクチャと信頼できるドメイン固有のモデルの不足のために制限されています。GNNの開発には、数百万のノードを持つ非常に大きなグラフの検索とトレーニングが含まれ、このトレーニングの実行に必要な計算インフラストラクチャの構築と保守には時間がかかります。DGLは、GNNの実装と展開を簡素化するツールとインフラストラクチャを提供します。

AWS Transit Gateway Network Managerがリリースされました

AWS全体およびオンプレミスでグローバルネットワークを集中管理および監視できるようになりました。Transit Gatewayネットワークマネージャーは、AWSリージョンおよびリモートロケーションにわたるネットワーク管理の運用上の複雑さを軽減します。AWS Transit Gatewayネットワークマネージャーは、プライベートネットワークの単一のグローバルビューを提供し、一元化された運用ダッシュボードからグローバルネットワークを視覚化して監視できます。

AWS Compute Optimizerがリリースされました

最適なAWS Computeリソースを確実に使用できるようにするための新しい機械学習ベースの推奨サービスです。Compute Optimizerは、M、C、R、T、およびXインスタンスファミリーのスタンドアロンEC2インスタンスに対して、EC2インスタンスのタイプとサイズの推奨事項を提供します。

Amazon VPC Ingress Routingにより、VPCトラフィックの転送パスに仮想アプライアンスを簡単に挿入できるようになりました

ルートテーブルをインターネットゲートウェイおよび仮想プライベートゲートウェイに関連付け、VPC内の仮想アプライアンスを介して着信および発信のAmazon Virtual Private Cloud(Amazon VPC)トラフィックをリダイレクトできるようになりました。また、個々のワークロードに基づいてAmazon VPCトラフィックをセグメント化し、このトラフィックを異なる仮想アプライアンスを介してルーティングすることにより、ワークロードごとにきめ細かなネットワークおよびセキュリティポリシーを作成できます。

AWS Deep Learning AMIs がTensorflow 1.15 & 2.0, PyTorch 1.3.1, and MXNet 1.6.0-rc0を新しくサポートしました

Ubuntu 18.04、Ubuntuの16.04、Amazon Linux 2、であらたにこれらのフレームワークがプリセットされたAMIが利用可能になります。このバージョンでは、AWS Inferentiaチップを使用して推論を実行するためのSDKであるAWS Neuronのサポートも新しくなりました。開発者がInferentiaベースのEC2 Inf1インスタンスを使用して高性能で低レイテンシの推論を実行できるようにするコンパイラ、ランタイム、およびプロファイリングツールで構成されます。

VPNパフォーマンスを改善するため、Site-to-Site VPNの高速化がアナウンスされました

AWS Global Acceleratorを使用して、AWSグローバルネットワークとAWSエッジロケーションを介してトラフィックをインテリジェントにルーティングすることにより、VPN接続のパフォーマンスを向上させるAccelerated Site-to-Site VPNがアナウンスされました。以前は、トラフィックがAWSのVPNエンドポイントに到達するために複数のパブリックネットワークを通過するため、VPN接続が一貫性のないパフォーマンスに直面する可能性がありました。パブリックインターネットなどのパブリックネットワークは混雑している可能性があります。パブリックネットワーク間およびパブリックネットワーク内の各ホップは、パフォーマンスリスクを引き起こす可能性があります。AWS Transit GatewayトランジットゲートウェイへのAWSサイト間VPN接続を作成するときに、AWSグローバルネットワークを使用してパフォーマンスの向上を活用できるようにアクセラレーションを有効にできるようになりました。カスタマーゲートウェイデバイスからのトラフィックは、最も近いAWSエッジロケーションを経由してルーティングされ、混雑のない冗長なAWSグローバルネットワークを通過して、AWSのVPNエンドポイントに到達します。

Amazon Redshiftがフェデレーテッドクエリをプレビューサポートしました

運用中のデータベース、データウェアハウス、データレイク全体のデータをクエリおよび分析できます。Federated Queryを使用すると、Amazon RDS for PostgreSQLおよびAmazon Aurora PostgreSQLのライブデータに対するクエリを、Amazon RedshiftおよびAmazon S3環境全体のクエリと統合できるようになりました。

AWS Outposが一般提供開始となりました

AWSインフラストラクチャ、AWSサービス、API、およびツールを事実上すべての顧客データセンター、コロケーションスペース、またはオンプレミス施設に拡張し、真に一貫したハイブリッドエクスペリエンスを実現する新しい完全マネージドサービスです。AWS Outpostsは、オンプレミスのアプリケーションまたはシステムへの低遅延アクセスが必要なワークロード、ローカルデータ処理、またはローカルデータストレージのニーズに最適です。Amazon EC2、Amazon EBS、Amazon ECSやAmazon EKSなどのコンテナベースのサービス、AWS OutpostsでAmazon RDSなどのデータベースサービス、およびOutpostsでローカルにAmazon EMRなどの分析サービスを実行できるようになりました。

AWS Transit Gatewayを使用してクラウドでIPマルチキャストワークロードが使用できるようになりました

マルチキャストは、単一のデータストリームを多数のユーザーに同時に配信し、マルチメディアコンテンツとサブスクリプションデータをサブスクライバグループにストリーミングするための優先プロトコルです。IPマルチキャストのサポートにより、Transit Gatewayは顧客がクラウドでマルチキャストアプリケーションを簡単に構築し、最大数百の受信者までマルチキャスト構成を簡単に監視、管理、スケーリングできるようにします。

AWS Transit Gatewayは、リージョン間ピアリングをサポートしました

Transit Gatewayは、顧客が単一のゲートウェイを使用して数千のAmazon Virtual Private Cloud(Amazon VPC)とオンプレミスネットワークを接続できるようにするサービスです。AWS Transit Gatewayを使用すると、顧客は、中央のリージョナルゲートウェイから各Amazon VPC、オンプレミスデータセンター、またはネットワーク全体のリモートオフィスへの単一の接続を作成および管理するだけで済みます。この発表により新たに、異なるAWSリージョンのTransit Gateway間でピアリング接続を確立する機能をサポートするようになりました。

Amazon Detectiveがプレビューリリースされました

潜在的なセキュリティ問題または疑わしいアクティビティの根本原因の分析、調査、および迅速な特定を容易にする新しいサービスです。AWSリソースからログデータを自動的に収集し、機械学習、統計分析、グラフ理論を使用して、リンクされたデータセットを構築します。Virtual Private Cloud(VPC)Flow Logs、AWS CloudTrail、Amazon GuardDutyなどの複数のデータソースから数兆個のイベントを分析し、リソース、ユーザー、およびそれらの間の相互作用の統一されたインタラクティブなビューを自動的に作成します。この統合ビューを使用すると、すべての詳細とコンテキストを1か所で視覚化して、調査結果の根本的な理由を特定し、関連する履歴アクティビティにドリルダウンして、根本原因を迅速に特定できます。

Amazon Augmented AI(Amazon A2I)がリリースされました

ML予測の人間によるレビューに必要なワークフローを簡単に構築することができるようになります。A2Iは、人間によるレビューを提供し、レビューシステムの構築や多数のレビュー担当者の管理に関連する重荷を取り除きます。  多くの機械学習アプリケーションでは、結果が正しいことを確認するために、人間が信頼性の低い予測を確認する必要があります。たとえば、スキャンされた住宅ローン申請書から情報を抽出するには、スキャンの質が低いか、手書きの品質が低いため、場合によっては人間によるレビューが必要になることがあります。しかし、人間のレビューシステムの構築は、複雑なプロセスまたは「ワークフロー」の実装、レビュータスクと結果を管理するカスタムソフトウェアの作成、および多くの場合、大規模なレビューアーグループの管理を伴うため、時間と費用がかかります。
Amazon A2Iを使用すると、機械学習アプリケーションの人間によるレビューを簡単に構築および管理できます。Amazon A2Iは、コンテンツモデレーションやドキュメントからのテキスト抽出など、一般的な機械学習のユースケース用の組み込みの人間レビューワークフローを提供します。

Amazon S3 Access Pointsがリリースされました

Amazon S3上の共有データセットの大規模なデータアクセスの管理を簡素化する新しいS3の機能です。S3アクセスポイントを使用すると、バケットごとに数百のアクセスポイントを簡単に作成できます。各アクセスポイントには、アプリケーション用にカスタマイズされた名前と権限があります。これは、共有データセットへのアクセスをプロビジョニングする新しい方法です。データの取り込み、変換、制限された読み取りアクセス、または無制限のアクセス用のアクセスポイントを作成する場合、S3アクセスポイントを使用すると、共有S3バケットへのアクセスの作成と維持の作業が簡素化されます。

Amazon RDS on Outpostsがプレビューリリースされました

オンプレミス環境で完全に管理されたAmazon RDSデータベースインスタンスをデプロイできます。Amazon RDSをOutpostsにデプロイすると、オンプレミスのデータとアプリケーションの近くで実行する必要がある低レイテンシのワークロードに対してオンプレミスでRDSを実行できます。Outposts上のAmazon RDSでは、AWSリージョンへの自動バックアップも可能です。同じAWSマネジメントコンソール、API、およびCLIを使用して、クラウドとオンプレミスの両方でRDSデータベースを管理できます。Outposts上のAmazon RDSは、MySQLおよびPostgreSQLデータベースエンジンをサポートし、追加のデータベースエンジンのサポートは近日中に開始されます。

Amazon Redshift data lake exportがアナウンスされました

Amazon Redshiftクエリの結果を、Analytics用の効率的なオープンカラムナーストレージ形式であるApache ParquetとしてAmazon S3データレイクにアンロードできるようになりました。Parquet形式は、テキスト形式と比較して、アンロードが最大2倍速く、Amazon S3で最大6倍少ないストレージ消費量となります。アンロードされたデータがAmazon S3バケット内のフォルダーに自動的にパーティション分割されるように、1つ以上のパーティション列を指定できます。たとえば、マーケティングデータをアンロードして、年、月、および日の列で分割することができます。これにより、クエリでパーティションのプルーニングを利用し、無関係なパーティションのスキャンをスキップして、クエリのパフォーマンスを向上させ、コストを最小限に抑えることができます。

Contact Lens for Aazon Connectが発表されました

Amazon Connectのネイティブに統合されたAI分析機能のセットであり、コンタクトセンターが顧客の会話の感情、傾向、コンプライアンスを理解して、カスタマーエクスペリエンスを向上させ、重要なカスタマーフィードバックを特定できるようにします。 2020年半ばに、進行中の通話中に問題をアラートで通知する機能を提供し、顧客が経験の乏しいときに介入できるようにします。Contact Lens for Amazon Connectの完全に管理された機械学習による分析機能により、コンタクトセンターの専門家とその非技術スタッフは、数回クリックするだけでAIのパワーを使用でき、コーディングやMLの経験は不要です。

Amazon ECS Cluster Auto Scalingがアナウンスされました

ECS Cluster Auto Scalingを使用すると、EC2で実行されているECSクラスターは、ゼロへのスケーリングやゼロからのスケーリングを含む、クラスター内のすべてのタスクとサービスのリソース需要を満たすために必要に応じて自動的にスケーリングできます。以前は、ECSにはASGのスケーリングを直接管理する機能がありませんでした。代わりに、ECSの外部でASGにスケーリングポリシーを手動で設定する必要があり、スケーリングに使用可能なメトリックは、目的のタスクカウントを考慮せず、すでに実行されているタスクのみを考慮しました。ECS Cluster Auto Scalingを使用すると、ASGのスケーリングポリシーはECSキャパシティプロバイダーを通じてECSによって管理されます。キャパシティプロバイダーを構成して、ASGの管理されたスケーリングを有効にし、ASGで余剰容量を予約し、ASGでインスタンスの終了を管理することもできます。

Amazon ECS、Amazon EKS、およびAWS App MeshがAWS Outpostsでの実行をサポートしました

Amazon ECSとEKSを活用して、レイテンシー依存関​​係のあるアプリケーションとデータセット用のAWS Outpostを使用して、お客様の場所でコンテナを実行できます。Outpostsにデプロイすることにより、顧客はAWSツールとパフォーマンスをオンプレミスに拡張できます。AWS App Meshを構成して、AWS OutpostとAWSクラウド全体のサービスに一貫した通信制御ロジックを提供し、ハイブリッドアプリケーションネットワーキングを簡素化できます。

Amazon ECS Capacity Providersがリリースされました

コンテナのコンピューティングキャパシティを管理する新しい方法であり、アプリケーションがキャパシティの使用方法に関する要件を定義できるようにします。キャパシティプロバイダを使用すると、コンテナ化されたワークロードがさまざまな種類のコンピューティングキャパシティで実行される方法について柔軟なルールを定義し、キャパシティのスケーリングを管理できます。キャパシティプロバイダーは、ECSでタスクとサービスを実行する際の可用性、スケーラビリティ、コストを改善します。以前は、起動タイプを使用して、タスクがEC2またはFargateのどちらを使用したかを制御し、配置制約と配置戦略を使用して、タスクの使用場所を制御できました。ただし、タスクの実行には、既に使用可能な容量(EC2インスタンスが既に実行されているなど)のみを使用でき、配置の制約と戦略は、すでに使用可能な容量のみを考慮していました。

Javaで機械学習モデルを開発およびデプロイすることを可能にするDeep Java Libraryがリリースされました

DJLは、Javaでディープラーニングモデルを開発するためのオープンソースライブラリで、ディープラーニングモデルをトレーニング、テスト、および展開するための使いやすいAPIを提供します。Javaは企業で最も人気のある言語ですが、ディープラーニングを使用するリソースはほとんどありません。Pythonは引き続き選択言語です。エンタープライズシステムにPythonモデルを展開すると、新しいソフトウェアの依存関係も導入され、ITの複雑さとコストが増加します。その結果、Java開発者はコードの解釈と書き換えにかなりの時間を費やして、ディープラーニングアプリケーションを開発していますが、DJLにより解決されます。

AWS Fargate Spotが一般提供開始となりました

Fargate SpotはAWS Fargateの新機能であり、Fargateの価格から最大70%の割引で、中断耐性のあるAmazon Elastic Container Service(Amazon ECS)タスクを実行できます。EC2スポットインスタンスと基本的な考え方は同じです。AWSクラウドの予備容量を使用して、タスクを実行します。Fargate Spotの容量が利用可能になると、指定したリクエストに基づいてタスクを起動できるようになります。AWSがキャパシティを戻す必要がある場合、Fargate Spotで実行中のタスクは2分間の通知で中断されます。Fargate Spotの容量が使用できなくなると、Fargateは、実行中の通常のタスクを維持しながら、Fargate Spotで実行中のタスクを縮小し  ます。

Programmatic Access to EBS Snapshotがアナウンスされました

プログラムから呼び出し可能なEBS Snapshot用のAPIです。コマンドライン(create-snapshot)から、Data Lifecycle Manager(DLM)を使用して自動スナップショット管理をセットアップできます。新しくリリースされたEBSダイレクトAPIを導入することで、ブロックインデックス(0、1、2など)を使用して、スナップショット内の特定の512Kブロックを識別します。バックアップ/リカバリ、ディザスタリカバリ、およびデータ管理の製品とサービスの開発者向けに設計されており、提供するサービスをより高速で費用対効果の高いものにできます。詳しくはこちらをご覧下さい。

Amazon SageMaker Studioがリリースされました

機械学習(ML)用に初めて開発された統合開発環境(IDE)であり、機械学習モデルを簡単に構築、トレーニング、デバッグ、デプロイ、監視できます。AWS SSOによって有効化されたシングルサインオンを使用して、Amazon SageMaker Studioに簡単にログインできます。その後、Amazon SageMaker Autopilotを使用してデータからモデルを自動的に生成するか、新しいSageMakerノートブック(現在プレビュー中)を数秒で起動してMLモデルとアルゴリズムの構築を開始できます。SageMaker Studioでは、ノートブックと同僚との共同作業が簡単です。ワンクリックで、ノートブックのスナップショットへのリンクを共有し、そのスナップショットをすべての依存関係と構成とともにキャプチャして、分析と結果を再現できます。さまざまなモデルパラメータと入力の実験を開始すると、SageMaker StudiosのAmazon SageMaker Experimentsのビジュアルインターフェイスを使用して、機械学習実験を簡単に参照、追跡、比較でき、漸進的な改善と最高のモデルを追跡できます。

Amazon SageMaker Autopilotがアナウンスされました

この機能により、Amazon SageMakerは、表形式のデータと指定したターゲット列を使用して、モデルを自動的にトレーニングおよび調整し、プロセスを完全に可視化できます。適切なアルゴリズムパラメーターを見つけるのが難しいことは言うまでもなく、特定のデータセットに最適なMLアルゴリズムを決定することは非常に困難です。さらに、適切なMLモデルを構築するには、データをクリーンアップするか、データを前処理する必要があります。これには時間がかかり、時には高度な機械学習スキルが必要です。Amazon SageMaker Autopilotはこのプロセス全体を簡素化し、データプリプロセッサ、アルゴリズム、アルゴリズムパラメーター設定のさまざまな組み合わせで機械学習ソリューションを自動的に探索します最も正確なモデルを見つけます。

Amazon SageMaker Model Monitorがリリースされました

実稼働環境で機械学習(ML)モデルを継続的に監視し、時間の経過とともにモデルのパフォーマンスを低下させる可能性のあるデータドリフトなどの逸脱を検出し、是正措置を取るよう警告するAmazon SageMakerの新しい機能です。エンドポイントから予測リクエストと応答を簡単に収集し、本番環境で収集されたデータを分析し、トレーニングまたは検証データと比較して偏差を検出できます。SageMaker Model Monitorの組み込みルールを使用して、構造化データセットのドリフトをすぐに検出したり、組み込みルールを実行する前にデータ変換を追加したり、独自のカスタムルールを記述したりできます。

Amazon SageMaker Debuggerがリリースされました

コードの変更なしで、リアルタイムでのトレーニングからのデータの取り込みと分析を自動化することで、機械学習(ML)モデルのトレーニングプロセスに洞察を提供します。Amazon SageMaker Studioのビジュアルインターフェイスを使用して、トレーニング中にモデルの特性を簡単に分析およびデバッグできます。異常が検出されると、SageMaker Debuggerは開発者に修復アクションを行うためのアラートを送信し、モデルのデバッグにかかる​​時間を数日から数分に短縮します。デバッグデータはお客様のAWSアカウントにとどまるため、SageMaker Debuggerをほとんどのプライバシーセンシティブなアプリケーションに使用できます。

Amazon SageMaker Notebook Experienceがプレビューリリースされました

数秒で機械学習ノートブックを起動でき、ワンクリックでノートブックを共有できます。新しいエクスペリエンスは、機械学習用の完全に統合された開発環境であるSageMaker Studioを介して利用することができます。インスタンスを選択して操作可能になるのを待つことなく、ノートブックをすばやく起動できます。このエクスペリエンスはAWS SSOと統合されているため、組織の認証情報を使用して簡単にアクセスできます。最新のSageMaker Studio SDKがノートブックにプリインストールされているため、モデルをプログラムで構築、トレーニング、デバッグ、追跡、および監視できます。また、シングルクリックでノートブックを同僚と共有することもできます。

Amazon SageMaker Experimentsがリリースされ、トレーニング実験を整理して追跡し比較することができるようになりました

機械学習は反復プロセスを伴う実験で、データ、アルゴリズム、およびパラメーターのいくつかの組み合わせを繰り返し実験する必要があります。時間が経つにつれて、この反復実験により、数百および数千のモデルトレーニングの実行とモデルバージョンが発生し、最高のパフォーマンスを発揮するモデルとその入力構成を追跡することが困難になります。Amazon SageMaker Experimentsを使用すると、機械学習実験を簡単に管理できます。すべての反復の入力、パラメーター、構成、および結果を試行として自動的に追跡し、また、グループ化や、整理することもできます。SageMaker ExperimentsはAmazon SageMaker Studioと統合されており、アクティブな過去の実験を閲覧し、主要なパフォーマンスメトリックで実験を比較し、最高のパフォーマンスメトリックを識別するための視覚的なインターフェースを提供します。

AWS Security HubがAWS Identity and Access Management (IAM) Access Analyzerとの連携をサポートしました

IAM Access AnalyzerはIAM機能であり、セキュリティチームと管理者が、ポリシーがリソースへの意図したアクセスのみを提供することを簡単に確認できるようにします。ポリシーがリソースへのパブリックまたはクロスアカウントアクセスを許可している場合、IAM Access AnalyzerとSecurity Hubの統合により、検出結果がSecurity Hubに送信されます。すでにIAM Access Analyzerを使用している場合、セキュリティハブはこの統合を自動的に有効にし、ユーザーが何もする必要なくIAM Access Analyzerから検出結果の受信を開始します。

Amazon RDS Proxyがプレビューリリースされました

Amazon Relational Database Service(RDS)の可用性の高いデータベースプロキシであるAmazon RDS Proxyがプレビューで利用できるようになり、アプリケーションのスケーラブル性、データベース障害に対する回復力、および安全性が向上します。AWS Lambdaコンソールから起動が可能です。アプリケーションは、データベースサーバー上のメモリと計算リソースを消費する接続を確立することにより、データベースと通信します。最新のサーバーレスアーキテクチャ上に構築されたものを含む多くのアプリケーションは、多数のデータベース接続を開いたり、頻繁に接続を開いたり閉じたりできます。これにより、データベースのメモリと計算に負荷がかかり、パフォーマンスが低下し、アプリケーションのスケーラビリティが制限されます。RDS Proxyは、アプリケーションとそのデータベースの間に配置され、確立されたデータベース接続をプールおよび共有し、データベースの効率とアプリケーションのスケーラビリティを向上させます。障害が発生した場合、アプリケーションからの接続を維持しながらスタンバイデータベースインスタンスに自動的に接続し、RDSおよびAuroraマルチAZデータベースのフェイルオーバー時間を最大66%短縮します。

AWS LambdaがProvisioned Concurrencyをサポートしました

Lambda関数は、指定された規模までの呼び出しごとに、一貫した起動遅延でトラフィックのバーストを瞬時に処理できます。AWSマネジメントコンソール、API、またはコマンドラインを使用して、プロビジョニングされた同時実行性を使用するように新規または既存の機能を構成できます。開発者が、関数の任意のバージョンまたはエイリアスで予想される同時実行性を設定するだけで、その後、AWS Lambdaは、関数が呼び出されてから2桁のミリ秒以内に開発者のコ​​ードの実行を開始するようにします。

Amazon Rekognition Custom Labelsがリリースされました

これにより、ビジネスニーズに関連する独自のオブジェクトとシーンを検出するための独自の機械学習(ML)ベースの画像分析機能を構築できます。たとえば、Amazon Rekognitionを使用して画像から機械部品を検出するお客様は、MLの専門知識を必要とせずに、「ターボチャージャー」および「トルクコンバーター」を検出するラベル付き画像の小さなセットでMLモデルをトレーニングできるようになりました。専門的な機械学習の専門知識と数百万の高品質のラベル付き画像を必要とするモデルをゼロからトレーニングする代わりに、顧客はAmazon Rekognitionカスタムラベルを使用して、独自の画像分析ニーズに合わせて最先端のパフォーマンスを実現できるようになりました。

AWS Step Functions Express Workflowsがリリースされました

AWSコンピューティング、データベース、メッセージングサービスにおいて、1秒あたり100,000イベントを超えるイベントレートで費用効果的に調整する新しいタイプのAWS Step Functionsワークフロータイプです。Express Workflowは、Amazon API Gatewayを介したHTTPリクエスト、AWS Lambdaリクエスト、AWS IoTルールエンジンアクション、およびAmazon EventBridgeからの100以上のAWSおよびSaaSイベントソースなどのイベントに応じて自動的に開始されます。Express Workflowsは、IoTデータの取り込み、ストリーミングデータの処理と変換、大量のマイクロサービスオーケストレーションなどの大量のイベント処理ワークロードに適しています。

Amazon EC2 NitroシステムベースのインスタンスがAmazon EBSに最適化されたインスタンスのパフォーマンスを36%高速化するようになりました

Nitroシステムの最新の機能強化により、すべての新しいC5 / C5d / C5n、M5 / M5d / M5n / M5dn、R5 / R5d / R5n / R5dn、およびP3dnインスタンスが36%高いEBS最適化インスタンス帯域幅(最大19 Gbpsまで)をサポートするようになりました。6、9、および12 TBのAmazon EC2 High Memoryインスタンスは、19 GbpsのEBS最適化インスタンス帯域幅をサポートできるようになり、14 Gbpsから36%増加しました。

Amazon Chime がミーティングのホストが14のリージョンを利用するようになり、より近い場所で設定できるようになりました

すべての会議参加者が1か所でローカルにいる場合でもグローバルに分散している場合でも、すべての会議参加者に低遅延を提供するリージョンを自動的に選択します。会議リージョンの選択は、AWSリージョンへの参加者の近接度とAWSネットワークテレメトリに基づいて、すべての会議に対して実行され、14のAWSリージョン(北バージニア、オハイオ、オレゴン、北カリフォルニア、モントリオール、サンパウロ、アイルランド、フランクフルト、ロンドン、パリ、ストックホルム、シンガポール、東京、シドニー)と32のアベイラビリティーゾーンが利用されます。

Advanced Query Accelerator (AQUA) for Amazon Redshiftがプレビューリリースされました

Redshiftが他のクラウドデータウェアハウスよりも最大10倍高速で実行できるようにする、新しい分散型ハードウェアアクセラレーションキャッシュです。中央ストレージを備えた既存のデータウェアハウジングアーキテクチャでは、処理のためにデータを計算クラスターに移動する必要があります。データウェアハウスが今後数年間成長し続けると、このすべてのデータを移動するために必要なネットワーク帯域幅がクエリパフォーマンスのボトルネックになります。AQUAは、ストレージレイヤーにより近いフィルタリングや集約などのデータ集約型タスクを実行することにより、Redshiftクエリを高速化します。これにより、データの保存場所と計算クラスター間の不要なデータ移動を排除することで、ネットワーク帯域幅の制限を回避できます。

ロサンゼルスで最初のAWS Local Zoneが発表されました

新しいタイプのAWSインフラストラクチャ展開であるAWSローカルゾーンは、AWSコンピューティング、ストレージ、データベース、およびその他の選択されたサービスを大規模な人口、産業、およびITセンターにより近づけ、ネットワーク遅延を低遅延に維持することを実現します。最初のLocal Zoneがロサンゼルスにでき事により、LAベースのお客様は、LAのエンドユーザーに1桁のミリ秒のレイテンシを必要とするワークロードをAWSで実行できるようになりました。

AWS Nitro Enclavesがプレビューリリースされました

AWS Nitro Enclavesを使用すると、お客様は分離されたコンピューティング環境を作成して、Amazon EC2インスタンス内の個人情報(PII)、医療、金融、知的財産データなどの機密性の高いデータをさらに保護および安全に処理できます。Nitro Enclavesは、EC2インスタンスのCPUとメモリを分離するのと同じNitro Hypervisorテクノロジーを使用しており、永続的なストレージを持たず、オペレータまたは管理者のアクセス権を持たず、安全なローカル接続のみを持つ完全に分離された仮想マシンです。インスタンスとエンクレーブ間の通信は、安全なローカルチャネルを使用して行われます。これにより、EC2からのみアクセス可能なさらに強固な分離された環境を作ることができます。

 

 

– シニアエバンジェリスト 亀田