Amazon Web Services ブログ

Category: Amazon EC2

進行中 ー Amazon EC2 Elastic GPUs

私は過去にGPUベースのコンピューティングのメリットについて書いてきました。最近では最大16個のGPUを搭載したP2インスタンスのリリースがありました。過去に指摘したように、GPUは驚異的なパワーとスケールを提供し、同時に結果を得るまでの時間と全体的な計算コストを削減する可能性があります。 今日、私たちが取り組んでいる新しいGPUベースの機能について少しお話したいと思います。 もう少しすると既存のEC2インスタンスタイプにグラフィックアクセラレーションを追加することができるようになります。 G2またはP2インスタンスを使用する場合、インスタンスサイズによってGPUの数が決まります。 これは多くの種類のアプリケーションでうまく機能しますが、他の数多くのアプリケーションでも、より新しい、より柔軟なモデルを利用する準備が整ったと考えています。 Amazon EC2 Elastic GPUs 発表されたAmazon EC2 Elastic GPUは、それぞれ異なる長所を提供します。アプリケーションに最適なEC2インスタンスのタイプとサイズを選択でき、また、インスタンスを起動する際にElastic GPUの使用を指定し、4種類のサイズから選択できます。 Name GPU Memory eg1.medium 1 GiB eg1.large 2 GiB eg1.xlarge 4 GiB eg1.2xlarge 8 GiB Elastic GPUをM4、C4、およびX1インスタンスで使用できるようになります。 現在、新しいインスタンスを起動するときに新しく作成されたEBSボリュームを設定する機能がありますが、 Elastic GPUについても同様に起動設定の際に希望のサイズを指定したり、実行中のインスタンスを停止、起動することにより変更が可能です。 OpenGLで始める Amazonに最適化したOpenGLライブラリは、自動的にElastic GPUを検出して使用します。 OpenGLのWindowsのサポートから始め、その後、Amazon Linux AMIやOpenGLの他のバージョンのサポートを追加する予定です。 また、DirectXやVulkanなど他の3D APIのサポートも検討しています(興味があるかどうかをお知らせください)。 既存のMicrosoft Windows AMIのリビジョンにAmazonに最適化したOpenGLライブラリを追加します。 OpenGLはレンダリングには最適ですが、レンダリングされたものはどうやって見ますか? 素晴らしい質問です! 1つの選択肢は、レンダリングされたコンテンツをHTML5と互換性のあるブラウザやデバイスにストリーミングするために、NICE Desktop Cloud Visualization(今年初めに買収 – Amazon Web Services to […]

Read More

開発者プレビュー ー EC2 Instances (F1) with Programmable Hardware

あなたは汎用ツールと非常に特殊な目的のために作られたツール、どちらかを決めなければならない経験をしたことはありませんか? 汎用ツールは、さまざまな問題を解決するために使用できますが、特定な用途に最適な選択ではないかもしれません。目的に合ったツールは1つのタスクに優れていますが、頻繁にその特定のタスクを実行する必要があります。 コンピュータエンジニアは、アーキテクチャと命令セットを設計するときに、この問題に直面し、非常に広い範囲のワークロードにわたって良好なパフォーマンスを実現するアプローチを常に追求しています。 時々新しいタイプの作業負荷と作業条件が発生し、カスタムハードウェアによって最もよく対処されます。 これにはもう1つのバランスのとれた行動、すなわち信じられないほどのパフォーマンスと、四半期または何年もかかる開発ライフサイクルの潜在的なトレードオフをする必要があります。    FPGAへ カスタムハードウェアベースのソリューションへの興味深いルートの1つとして、フィールドプログラマブルゲートアレイ(FPGA)が知られています。 単一の機能を念頭に置いて設計され、実装するために配線された専用チップとは対照的に、FPGAはより柔軟性があります。 これは、PCボード上のソケットに差し込まれた後、フィールドでプログラムすることができます。 各FPGAには、固定された有限個の単純な論理ゲートが含まれています。 FPGAをプログラミングするということは、論理機能(AND、OR、XORなど)または記憶素子(フリップフロップおよびシフトレジスタ)を単純に接続していく事となります。 本質的にシリアル(いくつかのパラレル要素)で、固定サイズの命令とデータパス(通常32または64ビット)を持つCPUとは異なり、FPGAは多くのオペレーションを並列に実行するようにプログラムでき、 ほとんどすべてのデータ幅、データ大小を操作できます。 この高度に並列化されたモデルは、数値計算の問題を処理するカスタムアクセラレータを構築するのに理想的です。 適切にプログラミングされたFPGAは、多くのタイプのゲノム解析、地震解析、財務リスク分析、大規模なデータ検索、暗号化アルゴリズムとアプリケーションに対して30倍のスピードを提供する可能性があります。 私はこれが素晴らしいことであると願うとともに、独自アプリケーションをスピードアップするために、あなたがFPGAを使いたくなることを願います! 長い道のりの中でいくつかの面白いチャレンジがあります。 第一に、FPGAは伝統的に、より大規模な専用システムのコンポーネントとなっています。 単にあなたが購入してデスクトップに接続することはできませんが、代わりにFPGAが提供ものにはハードウェアプロトタイピング、ハードウェアアプライアンスの構築、大量生産、長期にわたるセールス&デプロイメントサイクルといったソリューションが含まれています。 リードタイムはFPGAの適用範囲を制限する可能性があり、また、ムーアの法則はCPUベースのソリューションを費用対効果に優れたものにするには時間がかかることも意味します。   私たちはこの分野をより良くすることができると思います!   新しいF1 Instance 今日、新しいF1インスタンスの開発者向けプレビューを開始します。 あなた自身のためにアプリケーションとサービスを構築するだけでなく、AWS Marketplaceで販売して再利用するためにパッケージ化することができます。 すべてをまとめることで、かつてはFPGA駆動アプリケーション利用の前提条件であった資本集約かつ時間のかかるステップをすべて避けることができ、 他のソフトウェアに使用されているビジネスモデルと同様にする事ができます。 あなた自身のロジックを設計し、クラウドベースのツールを使ってそれをシミュレートして検証し、それを数日で市場に出すことができます。 Intel Broadwell E5 2686 v4プロセッサ搭載(全コアにてベース 2.3 GHz、ターボモード 2.7 GHz、3.0 GHzターボモード 1コア)、最大976 GiBのメモリ、最大4 TBのNVMe SSDストレージ、 1から8個までのFPGAであるF1インスタンスは、コアおよびFPGAベースのロジックを補完する豊富なリソースを提供します。 各FPGAは各インスタンスが専有し、マルチテナント環境でも分離されています。FPGAの仕様は次のとおりです(1つのF1インスタンスに最大8つあります): Xilinx UltraScale+ VU9P (16 nm製造プロセス) 288bit幅のバスをもった64 GiBのECC機能付きメモリを搭載 […]

Read More

EC2インスタンスタイプのアップデート – T2, R4, F1, Elastic GPUs, I3, C5

今朝早くに、AWSのCEOであるAndy Jassyが次のアップデートとなるEC2インスタンスのロードマップを発表しました。私たちは高I/O、コンピューティング最適化、メモリ最適化インスタンスの性能を向上させるとともに、FPGAベースのコンピューティングを含めたハードウェアアクセラレーションの領域にも進出します。この投稿では本日の発表をまとめるとともに、追加情報を含むそのほかの投稿たちへのリンクを示します。 これらの新しいインスタンスを計画するにあたって、お客さまが直面している問題やEC2で実行しようとしているワークロードについて十分に理解するために、私たちは非常に多くの時間を費やしました。お客さまの反応はさまざまでしたが、頻繁に言及されていたのはインメモリ分析、マルチメディア処理、機械学習(最新のAVX-512命令を用いたもの)、そして大規模でストレージ集積型のERP(Enterprise Resource Planning)アプリケーションなどでした。 次のインスタンス群が本日から利用可能です。 新しいF1インスタンス – F1インスタンスによって、Field-Programmable Gate ArrayまたはFPGAとして知られる、革新的なプログラマブルハードウェアを使用することができます。コードを記述してFPGA上で実行することにより、多くのゲノム分析、地震分析、財務リスク分析、ビッグデータ検索、そして暗号アルゴリズムなどの多くの処理を最大30倍高速化することができます。また本日、F1インスタンスの開発者プレビューおよびハードウェア開発キットをリリースしただけでなく、お客様がFPGAによるアプリケーションやサービスを構築して、AWSマーケットプレイスで販売することもできるようになりました。詳細については開発者プレビュー ー EC2 Instances (F1) with Programmable Hardwareをご覧ください。 新しいR4インスタンス – R4インスタンスは、昨今のメモリインテンシブなビジネスインテリジェンス、インメモリキャッシング、そしてデータベースアプリケーションのために設計されており、最大488GiBのメモリを搭載しています。R4インスタンスは大きなL3キャッシュと高速なメモリスピードにより、R3インスタンスより高い性能を発揮します。ネットワークの観点では、プレイスメントグループで使用した場合に、12Gbpsの専有EBS帯域幅に加えて、ENAによる最大20Gbpsのネットワーク帯域幅をサポートします。インスタンスは6つのサイズがあり、最大64個のvCPUと488GiBのメモリを選択できます。詳細については次世代のメモリ最適化EC2インスタンス(R4)をご覧ください。 拡張されたT2インスタンス – T2インスタンスはCPUの最大出力を定常的に使わないタイプのワークロードで、大きなパフォーマンスを発揮します。お客さまはT2インスタンスを、アプリケーションサーバやWebサーバ、開発環境、継続的インテグレーションサーバ、そして小規模のデータベースといった、さまざまなワークロードで利用されます。私たちはt2.xlarge(16GiBメモリ)とt2.2xlarge(32GiBメモリ)の2つを新たに加えます。既存のT2インスタンスと同様、新しいサイズも十分なベースラインパフォーマンス(既存のインスタンスに比べて最大4倍)に加えて、コンピューティングパワーが必要なときに全コアをバーストさせることができます。詳細については、新しいT2.XlargeとT2.2Xlargeインスタンスをご覧ください。 そして以下のインスタンス群については準備中です。 新しいElastic GPUs – まもなく既存のEC2インスタンスに対して、1GiBから最大8GiBのGPUメモリと、それに見合うコンピューティングパワーを持った、高パフォーマンスのグラフィックアクセラレーション機能を追加できるようになります。Amazonにより最適化されたOpenGLライブラリは、自動でElastic GPUsを検知します。この新たなEC2インスタンスのプレビューを発表するのに合わせて、AWS Graphic Certification Programを提供します。詳細については進行中 – Amazon EC2 Elastic GPUsをご覧ください。 新しいI3インスタンス – I3インスタンスは、Solid State Driveをベースとして高速で低レイテンシの不揮発性メモリ(Non Volatile Memory Express: NVMe)を搭載しています。4KBブロックサイズに対する最大330万のランダムIOPSと、最大16GB/秒のディスクスループットがあります。このインスタンスは、多くのI/Oインテンシブなリレーショナル&NoSQLデータベース、トランザクション処理、分析ワークロードで要求される水準を満たすように設計されています。I3インスタンスには6つのサイズがあり、最大64個のvCPUと488GiBのメモリ、そして15.2TBのストレージ(ERPアプリケーションに最適です)を選択できます。ストレージに保存されたすべてのデータは、保存時に暗号化されます。また新しいElastic Network Adapter(ENA)もサポートしています。 新しいC5インスタンス – C5インスタンスは、インテルの新しいXeon “Skylake” プロセッサをベースとしており、ほかのすべてのEC2インスタンスよりも高速な処理を行うことができます。Broadwellの後継として、SkylakeはAVX-512をサポートしているため、高度な浮動小数点演算を必要とする機械学習、マルチメデイア処理、科学計算、そして金融業務などに適しています。C5インスタンスには6つのサイズがあり、最大72個のvCPUと144GiBのメモリを選択できます。ネットワークの観点では、ENAをサポートするとともに、デフォルトでEBS最適化となっています。 原文: EC2 […]

Read More

次世代のメモリ最適化EC2インスタンス(R4)

インメモリプロセッシングには大きな需要があります。日ごとに大きくなるワークロードと、世代を経るごとにパワーを増すCPUのおかげもあり、高性能のビジネスインテリジェンス、分析、データマイニング、そしてレイテンシに敏感なその他のワークロードにおいて、データセットを丸ごとメモリに載せることが、前提条件となりつつあります。分散キャッシングとバッチ処理ワークロードもまた、大量のメモリに素早くアクセスできることの恩恵を受けるでしょう。 私たちは本日、次世代のメモリ最適化EC2インスタンスをリリースします。大きなL3キャッシュと高速なメモリを搭載することで、既存のR3インスタンスより高い性能を発揮します。ネットワークの観点では、プレイスメントグループで使用した場合に、1Gbpsの専有EBS帯域幅に加えて、ENAによる最大20Gbpsのネットワーク帯域幅をサポートします。 R4インスタンスには以下の特徴があります。 インテル Xeon E5-2686 v4 “Broadwell” プロセッサ(2.3GHz) DDR4メモリ ハードウェア仮想化(HVM)のみ ラインナップは次の通りです。 モデル vCPUs メモリ(GiB) ネットワークパフォーマンス r4.large 2 15.25 最大10 Gigabit r4.xlarge 4 30.5 最大10 Gigabit r4.2xlarge 8 61 最大10 Gigabit r4.4xlarge 16 122 最大10 Gigabit r4.8xlarge 32 244 10 Gigabit r4.16xlarge 64 488 20 Gigabit   R4インスタンスはオンデマンドインスタンスとリザーブドインスタンスの形で、米国東部(バージニア北部)、米国東部(オハイオ)、米国西部(オレゴン)、米国西部(北カリフォルニア)、欧州(アイルランド)、欧州(フランクフルト)、アジアパシフィック(シドニー)、中国(北京)、そしてAWS GovCloud (US) リージョンにおいて利用可能です。詳細はEC2の料金ページをご覧ください。 原文:New – Next Generation […]

Read More

EC2 値下げ (C4、M4、そしてT2インスタンスで) 東京リージョンも!

2016年12月1日からEC2の価格を下げるアナウンスをできることを非常に嬉しく思っています。これで皆さんの年末シーズンがすこし楽しくなることでしょう!我々の技術に対する投資と、規模と長年のキャパシティ管理の経験に基いて、コストを抑えることができることになりましたので、皆さんにお伝えします。 我々は、オンデマンド、リザーブドインスタンス (標準もコンバーチブルも)、そして専有ホストの価格を、C4、M4、そしてT2インスタンスにおいて、最大25%の値下げを致します。値下げは全てのAWSリージョンで適応されます。以下に一例としてLinuxタイプのオンデマンドインスタンス料金を示します(全リージョンで値下げは行われます): C4 – アメリカ東部(北部バージニア)とEU(アイルランド)とアジア太平洋(東京)で最大5%削減、アジア太平洋(ムンバイ)とアジア太平洋(シンガポール)では最大20%削減 M4 – アメリカ東部(北部バージニア)とEU(アイルランド)とEU(フランクフルト)で最大10%削減、アジア太平洋(東京)では最大20%削減、アジア太平洋(シンガポール)では最大25%削減 T2 – アメリカ東部(北部バージニア)では最大10%削減、アジア太平洋(東京)で最大20%削減、アジア太平洋(シンガポール)では最大25%削減 ※訳注: オンデマンドとリザーブドインスタンス、またリージョンやプラットフォーム(Linux、RHEL、SUSE、Windows等)によって値下げ率は異なります。価格が据え置きとなっているリザーブドインスタンスタイプもありますので、詳細は料金表を確認ください。 いつものことですが、オンデマンド価格でこの値下げの利益を得るために、皆さんがすべきことは何もありません。もし請求アラートや、新しくなった予算機能を使っているなら、閾値を適切に引き下げることを検討した方が良いかもしれません。 — Jeff 追伸 – 私の計算では、これが我々の53回目の値下げとなります。 原文: EC2 Price Reduction (C4, M4, and T2 Instances) (翻訳: SA岩永) ※訳注: 原文には東京リージョンへの言及が特別にありませんが、今回の値下げは全てのリージョンが対象のため、東京リージョンの価格変更情報も追記しています。

Read More

C2 の汎用 SSD (gp2) ボリュームの新しいバーストバランスメトリックス

AWS ユーザーの多くが、2014 年の中半期にリリースした汎用 SSD (gp2) EBS ボリュームを使用して素晴らしい成果を得ています (詳しくは New SSD-Backed Elastic Block Storage をご覧ください。ご自分のワークロードでどのタイプのボリュームを使用すべきか決めかねている場合は、幅広い種類のデータベース、開発とテスト、ブートボリュームのワークロードにわたり価格とパフォーマンスのバランスが取れている gp2 をお勧めします。このボリュームタイプで興味深いポイントの 1 つはバースト機能です。gp2 のバースト機能は AWS の顧客ベースを観察し、実社会におけるワークロードの I/O パターンに合わせて設計されました。AWS のデータサイエンティスト達は、ボリューム I/O は非常にバースト性が高く短時間で急上昇し、バースト間には十分なアイドル時間があることに気付きました。予測不可能でバースト性を持つトラフィックの性質が gp2 バーストバケットを設計した理由です。小さなボリュームでも 3000 IOPS までのバーストを可能にするほか、アイドル時間中または低レベルで I/O を実行している場合にバーストバケットを補充できるようにすることができます。バーストバケットの設計はすべての gp2 ユーザーに一貫性のある予測可能なパフォーマンスを提供します。実際には gp2 ボリュームが完全にバーストバケットを消耗することは非常に少なく、ユーザーは使用パターンをトラッキングし必要に応じて調整できるようになりました。さまざまなボリュームタイプのパフォーマンス最適化と、ベンチマークと実際のワークロードの違いに関するドキュメントはすでに提供済みです (詳しくは I/O Characteristics をご覧ください)。最初のブログ投稿で説明したように、バーストクレジットは設定済み GB/秒ごとに 3 倍の割合で蓄積し、読み取りまたは書き込み 1 回ごとに 1 つ使用されるようになっています。各ボリュームは 540 万クレジットまで蓄積することができ、ボリュームごとに 3,000 クレジット/秒の割合で使用することができます。使用を開始するには希望するサイズの gp2 ボリュームを作成し、アプリケーションを起動します。ボリュームの I/O […]

Read More

クラウドおよびオンプレミスワークロード用の新しい Amazon Linux Container Image

The Amazon Linux AMI は、EC2 上で実行しているアプリケーションにセキュアで安定した、高パフォーマンスの実行環境を提供します。リモートアクセスが制限され (ルートログインや必須の SSH キーペアがない)、重要でないパッケージがほとんどインストールされていない AMI は、優れたセキュリティプロフィールを誇ります。 たくさんの顧客から、この Linux イメージをオンプレミスで、特に開発ワークロードやテストワークロードの中で使用したいというリクエストがありました。 クラウドとオンプレミスでの使用に適した Amazon Linux Container Image の提供開始を今日発表することができ、光栄です。イメージは EC2 コンテナレジストリから入手できます (アクセス方法については、イメージの入手をお読みください)。AMI と同じソースコード、同じパッケージで構築されているため、コンテナの導入がスムーズに実行できます。そのままで使用することも、独自のイメージを作成するための土台として使用することもできます。 それを試してみるため、私は、作成したばかりの EC2 インスタンスを起動し、Docker をインストールし、新しいイメージを入手して実行してみました。その後、cowsay と lolcat (と依存関係) をインストールし、上記のイメージを作成しました。 このイメージの詳細については、Amazon Linux Container Image をお読みください。 このイメージは、 で使用することもできます。詳細については、Amazon ECR イメージを Amazon ECS で使用するをお読みください。

Read More

新しいユーティリティ – すべてのリージョンで長いリソース ID 形式にオプトイン

今年はじめに公開したブログ「長い形式の EC2 リソース ID が利用可能に」で、移行期間は 2016 年 12 月の初旬までと説明しました。この期間中はリージョンやユーザーベースで新しいリソース形式にオプトインすることができます。移行を完了すると、新たに作成したリソースの文字列には 17 文字が使用されるようになります。次の大切な日付を忘れないようにしてください。 11 月 – 11 月 1 日より describe-id-format コマンドを使用して希望のリージョンのカットオーバー期限を確認できるようになります。 12 月 – 12 月 5 日から 12 月 16 日の間、各 AWS リージョンにおいて 17 文字の文字列をデフォルトで使用するように設定します。 ご利用されているコードやツールが新しい形式に対応できるように、できる限り早急にオプトインすることをお勧めします。 オプトイン、オプトアウト、またはステータスチェックに使用できる長い形式の ID コンバーターツールをリリースしました。すでに をインストールしている場合は、スクリプトをダウンロードすればこれを実行することができます。 $ wget https://raw.githubusercontent.com/awslabs/ec2-migrate-longer-id/master/migratelongerids.py $ chmod +x migratelongerids.py 次に実施可能な操作をいくつかご紹介します。 アカウントのステータスを確認: $ ./migratelongerids.py –status アカウント、IAM ロール、IAM ユーザーを長い形式の […]

Read More

Amazon EC2 で Windows Server 2016 を実行

で Windows Server 2016 を実行できるようになりました。このバージョンの Windows Server にはいくつもの新機能が搭載されています。これには Docker や Windows コンテナのサポートも含まれています。本日より、すべての AWS リージョンで次の 4 つの形式をご利用いただけます。 Windows Server 2016 Datacenter のデスクトップ環境 – Windows Server のメインストリームバージョンはセキュリティとスケーラビリティを考慮して設計されています。従来のアプリケーションはもちろんのこと、クラウドネイティブのアプリケーションにも対応しています。Windows Server 2016 に関する詳細は「The Ultimate Guide to Windows Server 2016」 (登録必須) をご覧ください。 Windows Server 2016 の Nano Server – 最小構成のインストールで導入するクラウドネイティブは適度なディスク容量を使用し、アプリやサービス実行に使用するシステムリソース (メモリ、ストレージ、CPU) をより多く残し、データセンターバージョンよりも迅速に起動することができます。コードやアプリケーションを移行する場合の詳細情報については「Moving to Nano Server」をご覧ください。Nano Server にはデスクトップ UI が含まれていないので、PowerShell または WMI […]

Read More

X1 インスタンスの更新 – X1.16xlarge + リージョンの追加

今年初旬に AWS は x1.32xlarge インスタンスをリリースしました。約 2 TiB の容量を備えるこのインスタンスタイプは、メモリに大きな負担をかけるビッグデータ、キャッシュ、分析などのワークロードに最適です。AWS のお客様は SAP HANA インメモリデータベース、大規模な Apache Spark や Hadoop ジョブ、様々なタイプのハイパフォーマンスコンピューティング (HPC) ワークロードを実行しています。 そしてこの度、AWS は X1 インスタンスタイプの更新を 2 つリリースしました。 新しいインスタンスのサイズ – x1.16xlarge インスタンスの新しいサイズはフットプリントが小さいワークロードの実行を可能にします。 新しいリージョン – X1 インスタンスの利用が可能なリージョンを 3 つ追加しました。これでリージョン数は合計 10 になりました。 新しいインスタンスのサイズ 新しい x1.16xlarge の仕様は次のとおりです。 プロセッサ: 2 x Intel™ Xeon E7 8880 v3 (Haswell) 2.3 GHz – 32 cores […]

Read More