Author: AWS Japan Staff


IPv6 サポートの更新 – CloudFront、WAF、S3 Transfer Acceleration

先日のブログ「Amazon S3 で IPv6 をサポート」の続報として、今回は Amazon CloudFrontAmazon S3 Transfer AccelerationAWS WAF と 50 か所以上に渡るすべての CloudFront エッジロケーションでも IPv6 サポートが利用可能になったことをお知らせします。AWS では、すべての自律システムネットワーク (ASN) で IPv6 を有効にするための段階的な移行プロセスを本日より開始し、今後数週間に渡りすべてのネットワークで拡張する予定です。

CloudFront IPv6 のサポート
Amazon CloudFront ディストリビューションごとに IPv6 サポートを有効にすることができます。IPv6 を使用して CloudFront エッジロケーションに接続する閲覧者とネットワークは自動的に IPv6 でコンテンツを取得します。IPv4 を使用して接続する場合は以前のように機能します。オリジンサーバーへの接続には IPv4 を使用します。

新たに作成したディストリビューションでは自動的に IPv6 が有効になります。既存のディストリビューションを変更するには [Enable IPv6] を有効にします。これはコンソールまたは CloudFront API から設定できます。

この新機能の重要事項については次をご覧ください。

  • エイリアスレコード – ディストリビューションで IPv6 サポートを有効にすると、ディストリビューションの DNS エントリは AAAA レコードを含むものに更新されます。Amazon Route 53 とエイリアスレコードを使用してディストリビューションのドメインすべてまたは一部をマップしている場合、そのドメインに AAAA エイリアスを追加する必要があります。
  • ログファイルCloudFront アクセスログを有効にしている場合、IPv6 アドレスが c-ip フィールドで表示されるので、ログ処理システムがそれに対処できるようにしておいてください。
  • 信頼された署名者信頼された署名者と IP アドレスのホワイトリストを併せて使用している場合は、IP ホワイトリストと実際のコンテンツの IPv4/IPv6 ディストリビューションを備える、信頼された署名者 URL の IPv4 に限られたディストリビューションの使用を強くお勧めします。このモデルでは、IPv4 アドレスを使用して送信した署名リクエストにサインしたことで、コンテンツのリクエストがホワイトリストに載っていない別の IPv6 アドレスから届くといった問題を回避することができます。
  • CloudFormation – CloudFormation サポートを準備中今回のリリースでは、CloudFormation テンプレートから作成したディストリビューションで IPv6 は有効になりません。既存のスタックを更新する場合、スタックで参照したディストリビューションの設定に変更はありません。
  • AWS WAFAWS WAF と CloudFront を併せて使用している場合は、IPv6 アドレスのホワイトリストまたはブラックリストで適切となるように WebACL と IP ルールセットを必ず更新してください。
  • Forwarded ヘッダー – ディストリビューションで IPv6 を有効にする場合は、オリジンに渡した X-Forwarded-For ヘッダーに IPv6 アドレスが含まれているようにしてください。オリジンがこの形式のヘッダーを処理できるか確認してください。

詳しくは「Amazon CloudFront で IPv6 をサポート」をご覧ください。

AWS WAF IPv6 サポート
AWS WAF はアプリケーションレイヤーで発生する攻撃からアプリケーションを保護します (詳しくは「新機能 – AWS WAF」をご覧ください)。

AWS WAF が IPv4 アドレスまたは IPv6 アドレス経由で届くリクエストを調べられるようになりました。IPv6 と一致するウェブ ACL を作成することができます。詳しくは「IP Match Conditions の使用」をご覧ください。

既存の WAF 機能はすべて IPv6 に対応、そのパフォーマンスで目に見える変化はありません。IPv6 は WAF が収集し表示したサンプルリクエストで表示されます。

S3 Transfer Acceleration IPv6 サポート
この重要で新しい S3 機能が IPv6 をサポートするようになりました (詳しくは「AWS ストレージの更新 – Amazon S3 Transfer Acceleration + より多くのリージョンでさらに大きくなった Snowballs」をご覧ください)。アップロードに使用できるデュアルスタックのエンドポイントに簡単に切り替えることができます。次のように変更するだけです。

https://BUCKET.s3-accelerate.amazonaws.com

https://BUCKET.s3-accelerate.dualstack.amazonaws.com

クライアントオブジェクトの作成とデュアルスタック転送の有効を可能にする AWS SDK for Java 使用コードは次の通りです。

AmazonS3Client s3 = new AmazonS3Client();
s3.setS3ClientOptions(S3ClientOptions.builder().enableDualstack().setAccelerateModeEnabled(true).build());

大半のアプリケーションとネットワークスタックは自動的に IPv6 の使用を好む傾向があるので、これ以上の設定は必要ありません。IPv6 アドレスと併せて使用する上で機能動作に問題がないことを確認するため、パケットの IAM ポリシーを見直すことをお勧めします。詳しくは「IPv6 を使用して Amazon S3 にリクエストを送信」をご覧ください。

テストを忘れずに
AWS リージョンへの IPv6 接続に制限があったり存在しない場合は、代わりに IPv4 が使用されます。以前公開したブログでも触れましたが、IPv6 をサポートするようにクライアントシステムを設定することができます。ただし、その場合は IPv6 パケットをインターネットにルートするように設定していないネットワークに接続する必要があります。こうした理由から、IPv6 に切り替える前に何らかのアプリケーションレベルで行うエンドツーエンド接続のテストを行うことをお勧めします。

Jeff;

Amazon Game Studios が新ゲームタイトル「Breakaway」を発表

Amazon Game Studios (AGS)は今年のTwitchConで新しいゲームタイトル「Breakaway」を発表しました。Breakawayは高速アクション、チームワークとライブストリーミング用に構築された神話をモチーフにした対戦アクションゲームです。AGSはまた、Twitchのために作成されたStream+, Twitch Metastream, Broadcaster Match Builder, Broadcaster Spotlight等の新機能を発表しました。

Breakawayについてもっと詳しく知りたければ、playbreakaway.com の確認と Twitterの@PlayBreakaway のフォローをお願いします。

翻訳はSA 森が担当しました。原文はこちらです。

AWS Lambda と Amazon API Gateway で Express アプリケーションを実行

ExpressNode.js のウェブフレームワークです。これを使用すると、「サーバーレス」ウェブサイトやウェブアプリケーション、API を簡単にデプロイできます。サーバーレス環境では、大方またはすべてのバックエンドロジックがステートレスのオンデマンドで実行します (詳細情報については Mike Roberts によるブログ「Serverless Architectures」をご覧ください)。今月初旬に公開したブログ (「API Gateway の更新 – API 開発を簡素化する新機能」) で紹介した新しい Amazon API Gateway 機能と AWS Lambda を併せて使用した場合、既存の Express アプリケーションをサーバーレスで実行することができます。API Gateway を使用すると API を中心に開発者のエコシステム構築を可能にする使用量プランなど追加機能を利用したり、キャッシュにより応答性と費用対効果に優れたアプリケーション構築を行うこともできます。

AWS は aws-serverless-express パッケージを提供することで Express アプリケーションから LambdaAPI Gateway への移行をお手伝いしています。このパッケージには実例が含まれています、ぜひご活用ください。

Express コードとアプリケーションを API GatewayLambda に移行する場合に利用できる 2 つのリソースをご紹介します。

Jeff;

週刊 AWS – 2016 年 9 月 27 日

今回の週刊 AWS の作成には AWS 内外から 14 人の寄稿者にご協力いただきました。自分もぜひ参加していみたいという方は (re:Invent でランチ無料の可能性あり)、GitHub の週刊 AWS をご覧ください。

月曜日

9 月 26 日

火曜日

9 月 27 日

水曜日

9 月 28 日

木曜日

9 月 29 日

金曜日

9 月 30 日

土曜日

10 月 1 日

日曜日

10 月 2 日

新しい & 注目のオープンソース

  • dynamodb-continuous-backup で、DynamoDB の連続的なバックアップの自動化が設定されます。
  • lambda-billing で、NodeJS を使用して AWS のタグが付けられたプロジェクトへの請求が自動化され、PDF の請求書が作成されます。
  • vyos-based-vpc-wan は、AMI による完全な Packer + CloudFormation + Troposphere のセットアップで、動的なルーティングのため BGP-4 を使用して複数の AWS VPC 間で VyOS IPSec トンネルを実行します。
  • s3encrypt は、KMS キーを使用して S3 でファイルを暗号化および復号するユーティリティです。
  • lambda-uploader は、Lambda 関数のパッケージ化と AWS へのアップロードに役立ちます。
  • AWS-Architect は、マイクロサービスの Lambda および API Gateway へのデプロイに役立ちます。
  • awsgi は API Gateway および Lambda プロキシ統合用の WSGI ゲートウェイです。
  • rusoto は AWS SDK for Rust です。
  • EBS_Scripts には EBS の機能が含まれています。
  • landsat-on-aws は、Amazon S3、Amazon API Gateway、および AWS Lambda を使用してランドサット衛星データを操作するための無限にスケーラブルなインターフェイスを作成するウェブアプリケーションです。

新しい SlideShare プレゼンテーション

新しい AWS Marketplace の出品

近日開催のイベント

サポート募集

来週をお楽しみに。それまでは、Twitter でフォローして、RSS フィードをサブスクライブしてね。

re:Invent 2016 に向けての準備 – 来たるウェビナーにぜひご参加を(英語によるセッション)

AWS re:Invent 2016 の開催まで残り 60 日に迫りました。AWS サービスについて学ぶ機会を数多く提供しようと、私はすでに大量の記事をブログに投稿し、同僚も昼夜問わず尽力しています。新しい 2 つの会場で、ハンズオンラボ、認定資格試験、終日の追加コンテンツ、re:Source Mini Con (終日の技術セッション)、昨年の 2 倍の数の分科会セッションを予定しており、参加者の皆様にご満足いただけると確信しています。時間外には、アジェンダにちなんで、いくつかのアクティビティを予定しています。たとえば、チキンウィング早食い大会、Pub CrawlHarley Ridere:Play パーティre:Invent 5k (5 km ラン) などです。

ラスベガスで開催されるこのイベントに向けて万全に準備いただけるよう、3 つのウェビナーを用意しました。これらのウェビナーは無料かつ任意ですが、このイベントを最大限に活用できるよう、ぜひご参加ください。ウェビナーの概要は以下のとおりです。

How to Reserved Your Seats (席の予約方法) – 約 20 のトラック全体で 450 以上の分科会セッションを予定しています。今年は、お客様からの要望に基づいて、席を事前に予約できるようになります。それにより、不確定要素が減り、日程を組みやすくなっています。ウェビナーでは、オンラインツールで席を予約し、日程を組む方法を習得します。ウェビナーのセッションは以下のとおりです (すべての時間は PT)。

Deep Dive on AWS re:Invent 2016 Breakout Sessions (AWS re:Invent 2016 分科会セッションに関する詳細) – 上記の各トラックには、入門、アドバンスド、エキスパートレベルのセッションが含まれます。このウェビナーは、トラックとセッションの詳細を把握し、日程を組み始めるために役立ちます。ここでも、セッションの時間は PT です。

Know Before You Go (参加前の準備) – このウェビナーでは、基調講演、分科会セッション、トレーニングと認定資格セッション、re:Invent Central、ネットワーキングセッション、時間外のアクティビティを含め、re:Invent の全体像を説明します。

Jeff;

 

後記 – この大規模なイベントの開催が近づくにつれ、過去の参加者や AWS パートナー様から独自のハウツーガイドが公開されると思われます。もちろん時間が許す限りですが、公開されたそれらの情報についてまとめの記事を投稿していきます。

EC2 リザーブドインスタンスの更新 – Convertible RI とリージョン単位の利点

EC2 リザーブドインスタンスはほぼ 8 年前に発表されました。2009 年に開始されたモデルには 2 つの利点があります。キャパシティーの予約と、アベイラビリティーゾーン内の特定のインスタンスの使用に適用される大幅な割引です。長年にわたり、お客様からの意見や要望に基づいてモデルを改良し、スケジュールされたリザーブドインスタンスリザーブドインスタンスの予約内容の変更機能、リザーブドインスタンスマーケットプレイスでのリザーブドインスタンス (RI) の売買機能などのオプションを追加してきました。今回、リザーブドインスタンスモデルを再び強化することになりました。その内容は以下のとおりです。

リージョン単位の利点 – 多くのお客様から、割引がキャパシティーの予約よりも重要だという意見や、柔軟性が増すなら割引率は下がっても構わないという意見を頂いていました。そこで今回からは、Standard RI に関連付けるキャパシティーは予約されずに、リージョン内のいずれかの AZ で実行したインスタンスに RI の割引が自動的に適用されるように選択可能になりました。

Convertible リザーブドインスタンス – Convertible RI では、柔軟性を増しながらも高い割引 (On-Demand に比べて通常 45% の割引) を受けられます。リザーブドインスタンスに関連付けたインスタンスファミリーやその他のパラメータはいつでも変更できます。たとえば、新しいインスタンスタイプを利用するために C3 RI を C4 RI に変換したり、アプリケーション用にメモリの増量が必要になった場合に C4 RI を M4 RI に変換したりできます。また、EC2 の値下げを徐々に活用するために Convertible RI を使用することもできます。

それでは、詳しく見ていきましょう。

リージョン単位の利点
リザーブドインスタンス (Standard または Convertible) がリージョン内のすべてのアベイラビリティーゾーン間で自動的に適用されるように設定可能になりました。リージョン単位の利点により、リージョン内のすべてのアベイラビリティーゾーン間で RI がインスタンスに自動的に適用されることで、RI の割引の適用範囲が広がります。この利点を使用すると、キャパシティーの予約は行われません。代わりに、キャパシティーを予約するためのアベイラビリティーゾーンの選択が必要になります。インスタンスを頻繁に起動、使用、終了する動的な環境では、この新しい利点により、柔軟性が増し、RI を適用する最適なインスタンスの選択にかかる時間が短くなります。Auto Scaling によって起動されて Elastic Load Balancing によって接続されるインスタンスで水平スケーリングされるアーキテクチャでは、この新しい利点が大きな価値をもたらす可能性があります。AWS Management Console で [Purchase Reserved Instances] をクリックした後、[Search] をクリックすると、この新しい利点のある RI が表示されます。

1 つのアベイラビリティーゾーンに適用され、かつキャパシティーが予約される RI を購入する場合は、[Only show offerings that reserve capacity] チェックボックスをオンにできます。

Convertible RI
多くの場合、RI を購入するお客様の目的は、ワークロードに見合った価格で得をすることです。ただし、長期的な要件をまだ把握できない場合に、新しい Convertible RI を利用することもできます。要件が変化した場合は、設定を変更した別の Convertible リザーブドインスタンスに交換するだけで済みます。契約条件をリセットすることなく、新しいインスタンスタイプやオペレーティングシステム、テナントを設定した Convertible RI に交換できます。また、この交換は無料でいつでも可能です。

交換を行うときは、交換元の RI と同等以上の新しい RI を取得する必要があります。場合によっては、差額を支払う必要があります。交換プロセスは各 Convertible RI の定価に基づきます。この価格は交換元の RI の残存期間分の支払い額の合計になります。

Convertible RI を購入するには、[Search] をクリックする前に、[Offering Class] を [Convertible] に変更してください。

Convertible RI では、キャパシティーが予約されるだけでなく、On-Demand に比べて通常 45% の割引を受けられます。Convertible RI は、3 年契約に基づく現在のすべての EC2 インスタンスタイプに適用できます。3 つのすべての支払いオプション (前払いなし、一部前払い、全額前払い) を使用できます。

今すぐ利用可能
上記の購入と交換のオプションはすべて、AWS Management Console、[CLI]、AWS Tools for Windows PowerShell、または [Reserved Instance APIs] (DescribeReservedInstancesPurchaseReservedInstancesModifyReservedInstances など) からアクセスできます。

Convertible RI とリージョン単位の利点は、AWS GovCloud (US)China (Beijing) を除くすべてのパブリック AWS リージョンで使用できます (これらの 2 つのリージョンでも、まもなく使用可能になる予定)。

Jeff;

初年度のAlexa賞 – 250万米ドルを会話AI分野に投資

毎晩、日没の時間を Alexa に聞き、夕日のタイミングに合わせた 10 分前に散歩に出掛け、地平線に見えるオリンピック山脈の景色を楽しんでいます。

家族も友人達も、キッチンに置いてある Amazon Echo をとても気に入っています。先週は Alexa に冗談をリクエストしてみたり、日没の時間を聞いたり、音楽を掛けたり、次のシアトルシーホークスの試合時間をチェックしてもらいました。自宅に遊びに来る友人達も、すでに Alexa にリクエストすることに慣れたようです。まだ Alexa に慣れていない人でも、何度か練習するだけですぐにコツを掴んでいます。

すでに便利な Alexa ですが、これ以上に優れたものにできると Amazon は考えています。ユーザーの皆様が Alexa を搭載しているデバイスで短文ではなく普通の会話ができるようにしたいと思っています。今後 Alexa がスタートレックに登場する LCARS のようなコンピューターになることも夢ではありません。

Alexa Prize
高度な会話ができる人工知能 (AI) を現実にするため、Amazon では今年から Alexa Prize を毎年開催することにしました。会話 AI 分野の発展を目的とし毎年開催する大学生対象のこのコンテストで、Amazon は初年度において 250 万ドルを投資しました。

各大学のチーム (教授陣のスポンサーがリード) は Alexa Skills Kit (ASK) を使用して、人気の話題やニュースについて会話ができる「socialbot」を構築することができます。参加者である学生達に向けてコーパス提供に協力しているワシントンポスト紙など複数の情報源によるデジタルコンテンツのコーパスにアクセスすることができます。

Alexa を使用している何百万人というユーザーが、芸能人のゴシップや科学分野の飛躍的なニュース、スポーツ、テクノロジー (その他) といった幅広い範囲の内容について socialbot と会話を始めます。会話が終了すると、参加者達の socialbot の改善に役立つように Alexa ユーザーがフィードバックを提供します。お寄せ頂いたフィードバックは最終審査に進む socialbot の選考にも役立ちます。

今すぐ応募
参加希望のチームは 2016 年 10 月 28 日までに応募してください。Amazon のスポンサーを受けられるのは最大 10 チームまでとなっています。対象チームは 10 万ドル、Alexa を搭載したデバイス、AWS サービス (無料)、Alexa チームからのサポート (および他のチームの参加可能性もあり) を受けることができます。

選択されたチームの発表は 11 月 14 日です。その後コンテストが開始します。
コンテストは AWS re:Invent で 2017 年 11 月に終了します。その時点でベストパフォーマンスを評価された socialbot を構築したチームが発表され 50 万ドルの賞金が授与されます。また、Alexa ユーザーと 20 分間に渡り明確かつ愛想良く会話を続けることができた socialbot チームの大学は 100 万ドルを獲得することができます。

詳しくは Alexa Prize ルールAlexa Prize よくある質問Alexa Prize ページをご覧ください。このコンテストは Alexa Prize ルールによって統制されます。

Jeff;

※Amazon Echoは9月29日現在、日本未発売です。

 

Amazon EC2 の新しい P2 インスタンスタイプ – 最大 16 GPU

私は長期に渡る技術やビジネスの動向を見ながら、自ら使用しブログに書くことができる製品やサービスの成り立ちを観察することが好きです。今回のブログを準備している時に、3 つのトレンドが頭に浮かびました。

  • ムーアの法則 – 1965 年に予測されたムーアの法則は、半導体のトランジスタ数の集積度は毎年 2 倍になるというものです。
  • 大量市場/大量生産 – 人類が生み出し、使用し、楽しんでいる技術は大量の半導体を消費しており、大きなマーケットシェアになっています。
  • 専門化 – 上記の動向から、ニッチ市場ですら専門的な製品に関しては十分に大きい市場である場合があります。

このような動向に合わせて業界が進むに連れ、過去 10 年ほどの間に興味深いチャレンジがいくつか浮上しました。次のリストをご覧ください (箇条書きで考える癖がついていますね)。

  • 光の速度 – トランジスタ密度が増加しても、光の速度には限界があります (コンピューターの先駆者 Grace Hopper が好んで言っていたように、電気は1ナノ秒の間に 1 フィート未満しか移動できません)。
  • 半導体物理学 – トランジスタのタイム変換 (オンまたはオフ) の基本的限界により CPU が達成可能なサイクル時間の最低値を判断することができます。
  • メモリボトルネック – 有名な von Neumann Bottleneck は CPU の追加能力値を制限します。

GPU (グラフィックスプロセッシングユニット) はこうした動向から生まれたもので、いくつものチャレンジに対応しています。プロセッサがクロック速度の上限に達しても、設計者はムーアの法則でより多くのトランジスタを使用することができます。従来のアーキテクチャに対し、より多くのキャッシュやメモリを追加するためにトランジスタを使用することができますが von Neumann Bottleneck はそれを制限します。逆に、現在では専用ハードウェア (GPU 消費の先駆けとしてはゲームなど) が大きな市場になっています。これらをまとめると、GPU はスケールアップ (プロセッサ速度の上昇やボトルネックメモリ) の代わりにスケールアウト (より多くのプロセッサと平行する蓄積したメモリ) を行っていることが分かります。Net-net: GPU は多くのトランジスタを使用して大量の処理能力を提供する上で効率的な方法です。

こうしたバックグランドを踏まえた上で最新の EC2 インスタンスタイプ、P2 についてご説明します。このインスタンスは大規模な機械学習、深層学習、計算流体力学 (CFD)、耐震解析、分子モデリング、ゲノム、金融工学のワークロードに対応できるように設計されています。

新しい P2 インスタンスタイプ
この新しいインスタンスタイプは NVIDIA Tesla K80 アクセラレーター を8つまで組み込むことが可能です。それぞれ NVIDIA GK210 GPU ペアを実行します。各 GPU はそれぞれ 12 GB のメモリ (メモリ帯域幅 240 GB/秒 経由でアクセス可能) と、2,496 の並列処理コアを提供します。ECC メモリ保護も含んでいるため、シングルビットエラーの修正とダブルビットエラーの検出を可能にします。ECC メモリ保護と倍精度の浮動操作の組み合わせにより、こうしたインスタンスは上記のワークロードすべてにおいて最適です。

インスタンスのスペックは次をご覧ください。

インスタンス名 GPU カウント vCPU カウント
メモリ 並列処理コア
GPU メモリ
ネットワークパフォーマンス
p2.xlarge 1 4 61 GiB 2,496 12 GiB
p2.8xlarge 8 32 488 GiB 19,968 96 GiB 10 ギガビット
p2.16xlarge 16 64 732 GiB 39,936 192 GiB 20 ギガビット

インスタンスはすべて 2.7 GHz で実行している Intel の Broadwell プロセッサで AWS 固有バージョンを使用しています。p2.16xlarge は C ステートと P ステートのコントロールを可能にするほか、1 コアまたは 2 コアで実行している場合に 3.0 GHz まで高速化することができます。

GPU は CUDA 7.5 以上、 OpenCL 1.2 と GPU コンピューティング API をサポートします。p2.8xlargep2.16xlarge の GPU は一般的な PCI fabric 経由で接続します。これにより低レイテンシーのピアツーピア でのGPU間の転送を可能にします。

インスタンスはすべて新しい Enhanced Network Adapter を使用します (ENA – 詳しくは「Elastic Network Adapter – Amazon EC2 のハイパフォーマンスネットワークインターフェイス」をご覧ください)。また、上記の表のようにプレイスメントグループ内で使用した場合は低レイテンシーで 20 Gbps までサポートすることができます。

単一インスタンス上での、パワフルな複数 vCPU プロセッサと、適切に接続されている複数 GPU と、加えて同じ機能を持つ別のインスタンスへの低レイテンシーアクセスがあるので、スケールアウト処理での非常に優れた階層を作成することができます。

  • 1個の vCPU
  • 複数の vCPU
  • 1 個の GPU
  • 単一インスタンスで複数の GPU
  • プレイスメントグループ内の複数のインスタンスで複数の GPU

P2 インスタンスは VPC のみを対象にしており、64 ビット、HVM 形式、EBS-backed AMI を使用する必要があります。この機能は US East (Northern Virginia)US West (Oregon)Europe (Ireland) リージョンにてオンデマンドインスタンス、スポットインスタンス、リザーブドインスタンス、専用ホストとして今日からご利用いただけます。

下記は私が P2 インスタンスで NVIDIA ドライバと CUDA ツールキットをインストールした時の例です。その前に CUDA ツールキットと関連のサンプル用に十分な余裕(10 GiBもあれば十分です)を持った EBS ボリュームを作成、フォーマット、アタッチ、(/ebsに)マウントしてから実行しました 。

$ cd /ebs
$ sudo yum update -y
$ sudo yum groupinstall -y "Development tools"
$ sudo yum install -y kernel-devel-`uname -r`
$ wget http://us.download.nvidia.com/XFree86/Linux-x86_64/352.99/NVIDIA-Linux-x86_64-352.99.run
$ wget http://developer.download.nvidia.com/compute/cuda/7.5/Prod/local_installers/cuda_7.5.18_linux.run
$ chmod +x NVIDIA-Linux-x86_64-352.99.run
$ sudo ./NVIDIA-Linux-x86_64-352.99.run
$ chmod +x cuda_7.5.18_linux.run
$ sudo ./cuda_7.5.18_linux.run   # Don't install driver, just install CUDA and sample
$ sudo nvidia-smi -pm 1
$ sudo nvidia-smi -acp 0
$ sudo nvidia-smi --auto-boost-permission=0
$ sudo nvidia-smi -ac 2505,875

以下の点に注意してください。 NVIDIA-Linux-x86_64-352.99.runcuda_7.5.18_linux.run はインタラクティブプログラムです。ライセンス契約に同意しオプションをいくつか選択してパスを入力する必要があります。私が設定した CUDA ツールキットと実行時のサンプルは次の通りです。 cuda_7.5.18_linux.run:

P2 と OpenCL の一例
設定をすべて完了してから、この Gistp2.8xlarge インスタンスでコンパイルしました。

[ec2-user@ip-10-0-0-242 ~]$ gcc test.c -I /usr/local/cuda/include/ -L /usr/local/cuda-7.5/lib64/ -lOpenCL -o test

レポートは次の通りです。

[ec2-user@ip-10-0-0-242 ~]$ ./test
1. Device: Tesla K80
 1.1 Hardware version: OpenCL 1.2 CUDA
 1.2 Software version: 352.99
 1.3 OpenCL C version: OpenCL C 1.2
 1.4 Parallel compute units: 13
2. Device: Tesla K80
 2.1 Hardware version: OpenCL 1.2 CUDA
 2.2 Software version: 352.99
 2.3 OpenCL C version: OpenCL C 1.2
 2.4 Parallel compute units: 13
3. Device: Tesla K80
 3.1 Hardware version: OpenCL 1.2 CUDA
 3.2 Software version: 352.99
 3.3 OpenCL C version: OpenCL C 1.2
 3.4 Parallel compute units: 13
4. Device: Tesla K80
 4.1 Hardware version: OpenCL 1.2 CUDA
 4.2 Software version: 352.99
 4.3 OpenCL C version: OpenCL C 1.2
 4.4 Parallel compute units: 13
5. Device: Tesla K80
 5.1 Hardware version: OpenCL 1.2 CUDA
 5.2 Software version: 352.99
 5.3 OpenCL C version: OpenCL C 1.2
 5.4 Parallel compute units: 13
6. Device: Tesla K80
 6.1 Hardware version: OpenCL 1.2 CUDA
 6.2 Software version: 352.99
 6.3 OpenCL C version: OpenCL C 1.2
 6.4 Parallel compute units: 13
7. Device: Tesla K80
 7.1 Hardware version: OpenCL 1.2 CUDA
 7.2 Software version: 352.99
 7.3 OpenCL C version: OpenCL C 1.2
 7.4 Parallel compute units: 13
8. Device: Tesla K80
 8.1 Hardware version: OpenCL 1.2 CUDA
 8.2 Software version: 352.99
 8.3 OpenCL C version: OpenCL C 1.2
 8.4 Parallel compute units: 13

ご覧のように、すぐに使用できる膨大な処理能力があることが分かりました。

新しい深層学習AMI
このブログの冒頭で触れましたが、これらインスタンスは機械学習、深層学習、計算流体力学 (CFD)、構造計算、分子モデリング、ゲノム、金融工学のワークロードに最適です。

1 つ以上の P2 インスタンスの活用を助けるために、本日 深層学習AMI をリリースしました。深層学習は、もっと複雑でより大量な計算トレーニングプロセスを要するレベルの低い機械学習での予測に比べ、より信頼性が高い予測 (スコアや推論とも呼ばれます) を生成できる可能性を備えています。幸い、新世代の深層学習ツールは単一インスタンスにおける複数の GPU や、複数の GPU を含む複数のインスタンスに渡り、トレーニングワークを分散させることができます。
新しい AMI には次のフレームワークが含まれています。いずれもインストールおよび設定済みで、人気の MNIST データベースに対してテストも行われています。

MXNet – 柔軟性に優れポータブルな、深層学習において効率的なライブラリです。C++、Python、R、Scala、Julia、Matlab、JavaScript を含む幅広いプログラミング言語に渡り宣言型プログラミングや命令型プログラミングをサポートします。

Caffe – 表現力、速度、モジュール性を念頭に設計された深層学習のフレームワークです。Berkeley Vision and Learning Center (BVLC) と様々なコミュニティの協力者により開発されました。
Theano – この Python ライブラリは多次元配列に関する数式を定義、最適化、評価します。

TensorFlow – データフローグラフ (グラフの各ノードが算術演算、各エッジがノード間の多次元データの通信を表現) を使用した数値計算のオープンソースライブラリです。

Torch – 機械学習アルゴリズムのサポートを備えた GPU 指向の科学計算フレームワークです。すべて LuaJIT 経由でアクセスすることができます。

次の README ファイル ( ~ec2-user/src ) でフレームワークの詳細をご覧ください。

AMIs from NVIDIA
興味があれば次の AMI も合わせてご覧ください。

Jeff;

2017 年開始 – フランスの AWS リージョン

クラウドコンピューティングが世界中の組織で一般化するに伴い、その顧客ベースも着実に拡大し多様さを増しています。AWS では今後もさらに多くの AWS リージョンを構築しリリースする予定です。

ボンジュール ラ フランス
2017 年、フランスのパリに AWS リージョンがオープンします。この新しいリージョンは AWS パートナーとお客様がフランス国内でワークロードを実行しデータを保存できるようにします。

このリージョンは欧州で 4 番目の AWS リージョンになります。現在、欧州には 2 つのリージョンがあります – 欧州 (アイルランド)、欧州 (フランクフルト) そして今後数か月以内に英国にもリージョンを追加する予定です。これらのリージョンは AWS をご利用のお客様に合計 10 のアベイラビリティゾーン (AZ) を提供し、欧州内でデータを保存しながら耐障害性の高いアプリケーションを設計できるようにしています。

今回のリリースに伴い、AWS のグローバルインフラストラクチャは世界中の 13 か所に渡り 35 のアベイラビリティゾーンから構成されていることになります。さらに、来年はフランス、カナダ、中国、米国オハイオ州、英国で 5 つの AWS リージョン (および 12 のアベイラビリティゾーン) をリリースする予定です (詳しくは「AWS グローバルインフラストラクチャ」のページをご覧ください)。

引き続きフランスの新規および既存のお客様へのサービス提供と欧州全体に渡るパートナーと協力して参ります。もちろん新しいリージョンは新規のお客様だけでなく、すでに AWS をご利用いただいているお客様でデータをフランス国内で処理し保存したいという方々もご利用いただけます。

フランスの AWS リージョンに関する詳細はパリのチーム宛て aws-in-france@amazon.com にメールでお問い合わせください。


AWS Answers – AWS で不安を感じずに効率良く構築する

企業や団体が AWS Cloud に移行を決定しそのメリットを感じ始めたら、次のステップはアプリケーションを適切に構築することです。数々のお客様の様子を見て分かったのはベストプラクティス、具体的な設計パターン、既製のソリューション、高度な戦略的ガイダンスを探していることです。

そこで今日は新しい AWS Answers ページをご紹介します。

このページでは AWS アプリケーションのアーキテクチャや構築そして実行に関するよくある質問について分かりやすくお答えします。これにはアカウント設定インフラストラクチャ管理、ログ移行モバイルアプリケーションネットワーキングセキュリティウェブアプリケーションなどがあり、項目別にそれぞれのガイダンスを提供しています。経験豊富な AWS アーキテクトが情報を提供し、回答は Q&A 形式で掲載します。回答に協力したスタッフ全員がお客様と直接コミュニケーションを取り、プロセス時に集積した実際の経験をどの回答にも反映させています。

各回答は、ポイントを押さえて説明したブリーフィングまたは AWS CloudFormation を使用してデプロイできる自動化ソリューション、オンラインで閲覧可能もしくは PDF 形式でダウンロードできる実装ガイドなど、どの質問においても具体的な解決方法を提供しています。回答例は次をご覧ください。

AWS WAF を使用して構成済みの保護をデプロイするには? – 右側の図のように、構成済みの AWS WAF ルールとカスタムコンポーネント (honeypot を含む) をソリューションが設定します。
Amazon EC2 インスタンスを自動的に開始または停止するには? – 使用していない EC2 インスタンスを停止し必要に応じて再開するには、ソリューションが EC2 スケジューラを設定します。

Amazon Machine Image に含むべきものは? このブリーフィングではイメージ作成のベストプラクティスと一般的な 3 つの AMI 設計について紹介しています。

AWS で VPN モニタリングを導入するには? – ソリューションは VPN モニタリングをデプロイし、カスタムの CloudWatch メトリックスとして履歴データを自動記録します。

単一の VPN 接続を多重 VPC と共有するには? このブリーフィングは複数の Amazon VPC ネットワークとオンプレミスインフラストラクチャ間のリモート接続数を最小限に抑える方法を説明しています。

Jeff;