Amazon Web Services ブログ

Amazon SageMaker Studio: 機械学習のための初の統合開発環境

2019年12月3日、Amazon SageMaker Studioという機械学習のための初の統合開発環境(IDE)を提供できることを非常に嬉しく思います。 2017年に Amazon SageMaker がリリースされてからしばらく経ち、このサービスをご利用いただいているお客様の数は増加しています。機械学習開発ワークフローには反復的なプロセスが必要ですが、機械学習ツールが成熟していないために開発者は大変な思いをしてきました。従来のソフトウェア開発時に開発者が当たり前に使用する多くのツール(デバッガ、プロジェクトマネジメントツール、コラボレーション機能、モニタリングツールなど)は、まだ機械学習用には存在していないのです。

Read More

Amazon SageMaker Experiments – 機械学習モデルの整理、追跡、比較、評価

2019年12月3日、機械学習(ML)実験とモデルバージョンの整理、追跡、比較、評価を可能にする Amazon SageMaker の新機能である、Amazon SageMaker Experiments を発表できて非常にうれしく思います。 機械学習では非常に多くの反復プロセスを含みます。1つのプロジェクトの過程で、データサイエンティストと 機械学習エンジニアは、最大限の精度を求めて数千の異なるモデルを定期的に学習を行います。実際、アルゴリズム、データセット、および学習パラメーター(別名ハイパーパラメーター)の組み合わせの数は無限に存在します。それはまさに「干し草の山の中にある1本の針を探す」ということわざのように無駄骨を折る苦労を伴います。

Read More

AWS Transit Gatewayの新機能– Network Managerを使用してグローバルネットワークを構築し、モニタリングを集中化

会社が成長し、クラウドベースのインフラストラクチャのメリットを享受するにつれて、オフィスや店舗などのオンプレミスサイトは、AWSや他のサイトへの高性能なプライベート接続を手頃なコストでますます必要としています。専用回線に基づく従来のブランチネットワークはコストがかかり、従来のデータセンターと同じ弾力性と俊敏性の欠如に悩まされているため、ネットワークの成長は困難です。 同時に、AWSリージョンとオンプレミスサイトに広がるグローバルネットワークの管理と監視がますます複雑になっています。これらのさまざまな場所からのデータをつなぎ合わせる必要があります。これにより、一貫性のない運用経験、コストと労力の増加、さまざまなテクノロジーにわたる可視性の欠如からの見落としが生じます。 現在、AWS Transit Gatewayの次の新機能により、グローバルネットワークの構築、管理、監視を簡単にしたいと考えています。 トランジットゲートウェイのリージョン間ピアリング 高速化されたサイト間VPN AWS Transit Gatewayネットワークマネージャー

Read More

Amazon Managed Apache Cassandraサービス(MCS)がアナウンスされました

大規模なデータベース管理は決して簡単ではありません。キーと値や表形式を含む大量の構造化データを保存、取得、管理するオプションの1つにApache Cassandraがあります。Cassandraでは、表現力豊かなCassandra Query Language(CQL)  を使用して、アプリケーションを迅速に構築できます。 ただし、大規模なCassandraクラスターの管理は困難な場合があり、多くの時間がかかります。基盤となるインフラストラクチャのセットアップ、構成、および保守には専門的な専門知識が必要であり、Apache Cassandraオープンソースソフトウェアを含むアプリケーションスタック全体を深く理解するひつようがります。ノードを手動で追加または削除し、パーティションを再調整する必要があります。必要なパフォーマンスでアプリケーションを使用可能に保ちながら、再調整を行うことも必要です。顧客と話をすると、スケールダウンが複雑であるため、ピーク負荷に合わせてクラスターをスケールアップし続けることが多いことがわかりました。Cassandraクラスターを最新の状態に保つには、ノードごとに実行する必要があります。更新中に問題が発生した場合、クラスターのバックアップと復元は難しく、パッチをスキップしたり、古いバージョンを実行したりする可能性があります。

Read More

Amazon Redshift の新機能 – 次世代コンピュートインスタンスと、マネージドで分析に最適化したストレージ

私たちはAmazon Redshiftを2012年にローンチしました(Amazon Redshift – The New AWS Data Warehouse)。数万ものお客様を抱え、今では世界で最も人気のあるデータウェアハウスとなっています。私たちのお客様は、業界を牽引するコストパフォーマンスで享受できる高速なパフォーマンス、複雑なクエリのサポート、トランザクション機能などに満足しています。 オリジナルのRedshiftのモデルは、計算能力とストレージのキャパシティが強固に結びついた形で規定されています。特定数のインスタンスからなるクラスターを作成すると、同時にインスタンスが搭載するローカルストレージの総量が約束されます(ときには総量によって容量が限定されます)。Concurrency Scaling(同時実行スケーリング)によって追加の処理能力を得ることもできますし、数分でクラスターのスケールアウトやスケールダウンが可能なElastic Resize(伸縮自在なサイズ変更)を使うことができるため、変化する処理能力やストレージの要求に適応することが可能です。 私たちはもっとうまくやれると思っています!今日、私たちはRedshiftに、処理能力とストレージをそれぞれ別々に最適化することができる新しいストレージ管理モデルで支えられている、Nitroベースの次世代コンピュートインスタンスをローンチします。このローンチは、ネットワークの広帯域化、Amazon Simple Storage Service (S3)を背後に持つSSDベースのローカルストレージを利用するマネージドストレージ、そしてS3との間で行き来するデータの動きを最適化するための複合的で高度なデータ管理技術といった、アーキテクチャの改良を利用しています。

Read More

エキサイティングな新レース形式で、開発者がオブジェクト回避と直接対決モデルでの競争を可能にする AWS DeepRacer Evo が間もなく登場

AWS DeepRacer の発足以降、AWS DeepRacer モデルを構築し、AWS DeepRacer リーグに参加して 2019 AWS DeepRacer リーグチャンピオンの称号を得るため、世界中の何万人もの開発者が AWS マネジメントコンソールで強化学習の実践的な経験を積んでいます。リーグファイナルが今週、re:Invent 2019 にて開催されます。 直接対決レースなどが可能な AWS DeepRacer Evo の紹介 強化学習で駆動する 1/18 スケールの自立型走行車で、LIDAR とステレオカメラセンサーが新しく搭載された AWS DeepRacer Evo をご紹介します。 新しいステレオカメラと LIDAR (光検出および測距) センサーにより、ユーザーはオブジェクトの検出や他のマシンの回避を可能にするさらに高度な強化学習モデルのトレーニングができるようになります。ユーザーは、2020 年開催の新しい AWS DeepRacer League レース形式に参加可能なモデルを構築できるようになりました。新式レースでは、2019 年のタイムトライアル形式に加えて、オブジェクト回避とデュアルカーの直接対決レースがバーチャルと現実の世界の両レースに加わります。 開発者は、AWS DeepRacer コンソールの新しい「My Garage」セクションで、仮想マシンにステレオカメラとLIDARセンサーを追加することで、オブジェクト回避と直接対決モデルの構築を始めることができます。これらのセンサーで、レーストラックを独自の視点で見ることができます。マシンはステレオカメラでオブジェクトとの距離を検出でき、LIDAR は後ろから高速で接近しているマシンがいるかどうかを判断するのに役立ちます。センサーから受け取ったこれらの情報を、高度なアルゴリズムと最新の報酬関数と組み合わせることにより、開発者は障害物 (他のマシンを含む) を検出するだけでなく、追い越しのタイミングを決定したり、他のマシンをゴールライン際で抜かしたりできるようなモデルを構築できます。 AWS DeepRacer コンソールの新しい Garage セクションで、AWS DeepRacer Evo に新しいセンサーを追加します。 それだけではありません。AWS DeepRacer […]

Read More

S3 の Access Analyzer を使用して、Amazon S3 バケットを監視、確認、保護する

AWS のセキュリティは単なる機能ではありません。考え方です。本日、私たちは S3 の Access Analyzer を発表しました。これは、ユーザーの代わりにリソースポリシーを監視する新機能です。デフォルトでは、S3 で作成されたすべてのバケットとオブジェクトはプライベートに設定されています。AWS では、アクセスコントロールリスト (ACL) やバケットポリシーなどのメカニズムを使用して、詳細なアクセスレベルを設定できます。S3 の Access Analyzer はアクセスポリシーを監視する新しい機能です。これにより、ポリシーは S3 リソースへの意図したアクセスのみを提供するようになります。S3 の Access Analyzer がバケットアクセスポリシーを評価することで、ユーザーは不正アクセスの可能性があるバケットを見つけ、迅速に修正できるようになります。 組織やワークロードが大きくなると、S3 の Access Analyzer はすべてのポリシーを評価し、AWS アカウントの外部で共有され、不正アクセスの危険にさらされているパケットについて警告します。この投稿では、Amazon S3 の Access Analyzer を有効にする方法を順を追って説明します。また、この新機能を使用することによって、S3 バケットへのアクセスが意図したものであり、それだけに過ぎないことを確認できるユースケースについて考察します。 バケットへのアクセスが共有アクセスである可能性を示す結果が確認された場合、S3 マネジメントコンソールでワンクリックするだけでバケットへのすべてのパブリックアクセスをブロックでき、必要に応じてより詳細なアクセス許可を設定することもできます。静的なウェブサイトホスティングなど、パブリックアクセスを必要とする特定の検証済みのユースケースについては、バケットの解析結果を承認およびアーカイブして、バケットをパブリックまたは共有のままにするつもりであることを記録できます。これらのバケット設定は、いつでも確認および変更できます。監査の目的で、S3 の Access Analyzer の解析結果を CSV レポートとしてダウンロードできます。 S3 マネジメントコンソールを開始する前に、IAM コンソールにアクセスして、AWS Identity and Access Management (IAM) Access Analyzer を有効にします。こうすることで自動的に、S3 の Access Analyzer が S3 マネジメントコンソールの中に表示されるようになります。S3 の Access Analyzer は、re:Invent 2019 にて本日リリースされた IAM Access Analyzer に基づいています。 S3 […]

Read More

まもなく登場 – Graviton2プロセッサ搭載の汎用、コンピューティング最適化、メモリ最適化インスタンス

昨年のre:Invent 2018では、ArmベースのGravitonプロセッサ搭載の初代EC2インスタンス(A1)を発表しました。以来、コンテナ化されたマイクロサービス、ウェブサーバー、ログ等のデータ処理といったスケールアウト型のワークロードに対して、何千もの顧客がA1インスタンスを活用しています。 ArmアーキテクチャとA1インスタンスは早期の段階から、OSベンダー、ソフトウェアベンダー双方のコミュニティの強い協力を得られています。今やA1インスタンスに対して、Amazon Linux 2, Ubuntu, Red Hat, SUSE, Fedora, Debian, FreeBSDといった複数のLinux/Unixディストリビューションを選択できます。 さらに稼働させるサービスとしてDocker, Amazon ECS,  Amazon Elastic Kubernetes Serviceといったコンテナサービスを選択できますし、他にも多くのシステムエージェントや、AWS Developer ToolsやJenkinsを始めとする様々な開発ツールも動作します。 これまでにA1インスタンスに寄せられたフィードバックは強力かつポジティブなものばかりで、特にCPUインテンシブあるいはメモリインテンシブなワークロードをどんどんArmベースのサーバーで稼働させていきたいという声を受け取っていました。 Graviton2 本日、次世代のARMベースのEC2インスタンスの登場を先行発表します。このインスタンスはAWS Nitro Systemをベースに、新しいGraviton2プロセッサを搭載したものです。このプロセッサは7nm(ナノメートル)製造プロセスによるAWS独自設計によるもので、64ビットARM Neoverseコアをベースとして、浮動小数点演算処理の2倍の性能向上を含め、最大でA1インスタンスの7倍の性能を発揮するものです。また追加のメモリチャネルと1コアあたり倍加したキャッシュにより、メモリアクセス速度は最大で5倍まで向上しました。 これらの改良は、これまでのM5, C5, R5といった第5世代のインスタンスタイプを上回る、極めて大きな性能向上をもたらします。vCPUあたりの性能をM5インスタンスと比較したとき、初期のベンチマーキングでは次のような結果が得られました。 SPECjvm® 2008: +43% (推定) SPEC CPU® 2017 integer: +44% (推定) SPEC CPU 2017 floating point: +24% (推定) NginxでのHTTPSロードバランシング: +24% Memcached: +43% かつレイテンシの短縮 X.264ビデオエンコーディング: +26% Cadence XcelliumによるEDAシミュレーション: […]

Read More