Amazon Web Services ブログ

Category: Artificial Intelligence

Amazon SageMaker ノートブックインスタンスのためのライフサイクル設定の更新

Amazon SageMaker では顧客が更新された API を使用して、ノートブックインスタンスのライフサイクル設定を更新するか、関連付けを解除できるようになりました。 ノートブックインスタンスを停止して、ノートブックインスタンスのライフスパンの任意の時点で UpdateNotebookInstance API を使用することで、必要に応じて、ライフサイクル設定を関連付けるか、切り替えるか、または無効にすることができます。 ライフサイクル設定 は、ノートブックインスタンスでデータ科学ワークスペースを構築するときに必要なセットアップを整理して、自動化するときに便利です。 ノートブックインスタンスが開始するたびに、タスクのリストを実行できます。ライフサイクル設定を使用して、ノートブックインスタンスにパッケージやサンプルノートブックをインストールするか、データを事前ロードするか、ネットワークやセキュリティを設定するか、シェルスクリプトを使用してそれをカスタマイズすることができます。ライフサイクル設定を作成した後で、それを複数インスタンスで使用するか、将来の使用のために保存することができます。 以前、ノートブックインスタンスを初めて作っているときに割り当てた1つである場合のみ、ライフサイクル設定を使用できます。また、ノートブックインスタンスを削除することによってのみ、ライフサイクル設定を無効にできます。UpdateNotebookInstance API を使用して、ノートブックインスタンスのこれらのライフサイクル設定を 更新するか、関連付けを解除できるようになりました。 AWS コンソールのライフサイクル設定を更新する方法は、次のとおりです。 まず、設定の更新のために、実行中のインスタンスを停止する必要があります。それを停止した後で、設定の更新が有効になったことがわかります。 Update setting (設定の更新)をクリックして、メニューを使用してライフサイクル設定に進み、既存の設定を切り離すか、別のものに置き換えます。 API 要求パラメータを示す例は、以下のとおりです。 { “DisassociateLifecycleConfig”: boolean, “InstanceType”: “string”, “LifecycleConfigName”: “string”, “NotebookInstanceName”: “string”, “RoleArn”: “string” } パラメータの詳細な説明については、ここに示した Amazon SageMaker API ドキュメンテーションページにアクセスできます。https://docs.aws.amazon.com/sagemaker/latest/dg/API_UpdateNotebookInstance.html.   著者について Erkan Tas は、Amazon SageMaker のシニアテクニカルプロダクトマネージャーです。彼は、AWS プラットフォームを使用して、人工知能を簡単に、アクセス可能に、スケーラブルにするという役割を担っています。また、彼は船乗りであり、科学と自然を崇拝し、碁やストラトキャスターのプレイヤーでもあります。        

Read More

Amazon SageMaker でノートブックのボリュームサイズを最大 16 TB までカスタマイズできます

 Amazon SageMaker は大量のデータを保存するために必要なときに、ノートブックストレージボリュームをカスタマイズできるようになります。 ノートブックインスタンスに適切なストレージボリュームを割り当てることは、Machine Learning モデルを開発する際には重要です。そのストレージボリュームを使用して、大量のデータセットを処理するか、操作に使用する他のデータを一時的に保存することができます。 Amazon SageMaker で作成したすべてのノートブックインスタンスのデフォルトストレージボリュームは、5 GB に設定されています。5 GB から 16384 GB まで、1 GB の増分値で選択できます。 Amazon SageMaker コンソールを使用してノートブックを作成するとき、ストレージボリュームを定義できます。 ここでは、ニーズに合わせて、GB 単位でボリュームサイズを編集する必要があります。 結論 ニーズに応じて、ノートブックインスタンスのストレージボリュームをカスタマイズします。Amazon SageMaker のドキュメントを参照して、ノートブックインスタンスを作成して、使用する方法の詳細についてご覧ください。   著者について Erkan Tas は、Amazon SageMaker のシニアテクニカルプロダクトマネージャーです。彼は、AWS プラットフォームを使用して、人工知能を簡単に、アクセス可能に、スケーラブルにするという役割を担っています。また、彼は船乗りであり、科学と自然を崇拝し、碁やストラトキャスターのプレイヤーでもあります。        

Read More

AWS PrivateLink エンドポイントを使用することで、Amazon VPC から Amazon SageMaker ノートブックに直接アクセスする

Amazon SageMaker は、AWS PrivateLink を ノートブックインスタンスに対してサポートするようになりました。 この記事では、Amazon SageMaker ノートブックへの接続を確保するために、AWS PrivateLink をセットアップする方法を示します。 HIPAA または PCI などの規制へのコンプライアンスを維持するために、情報がインターネットを経由しないようにすることが必要になることがあります。 さらに、公共インターネットへのデータの露出を防止することで、ブルートフォースや分散サービス拒否攻撃などの脅威ベクトルの可能性が減少します。 AWS PrivateLink は、公共インターネットへのデータの露出を排除することにより、クラウドベースのアプリケーションと共有するデータのセキュリティを簡素化します。複数の VPC、AWS サービス、オンプレミスアプリケーションの間のプライベート接続を可能にします。AWS PrivateLink により、プライベートネットワークで直接、ホストされる場合と同様に、お使いのサービスが機能します。 AWS PrivateLink を使用してAmazon SageMaker APIと予測呼び出しを保護するため、以前、API オペレーションとランタイムのための PrivateLink サポートを導入しました。 AWS PrivateLink を使用して、ノートブックインスタンスへの接続も同様に保護することができるようになります。 AWS PrivateLink を介して Amazon SageMaker ノートブックを使用するために、Amazon Virtual Private Cloud (VPC) エンドポイントをセットアップする必要があります。 AWS PrivateLink は、インターフェイス VPC エンドポイントを使用することで、スケール自在な方法で VPC からすべての Amazon SageMaker API オペレーションにプライベートにアクセスすることができます。VPC エンドポイント は、プライベート IP アドレスをもつサブセットの Elastic Network Interface […]

Read More

CSVデータセットのPipeモードを使って、Amazon SageMaker内蔵アルゴリズムでトレーニングがより早く

Amazon SageMakerに内蔵されたアルゴリズムはPipeモードをサポートし、Machine learning (ML)モデルをトレーニングしている間、Amazon Simple Storage Service (S3)からCSV形式でデータセットを取得しAmazon SageMakerへ取り込みます。 モデルのトレーニングを進めながら、データはPipe入力モードでアルゴリズムコンテナに直接流れます。トレーニングを開始する前にデータをローカルの Amazon Elastic Block Store (EBS)の容量でダウンロードするファイルモードとは異なります。Pipeモードを利用すると、トレーニングはより早く、かなり少ないディスク容量でより速く終了することができます。Machine learningモデルをトレーニングする全体的なコストを削減することができます。3.9GB CSVデータセットのAmazon SageMakerのLinear Learnerアルゴリズムで、回帰モデルのトレーニングに利用した内部基準では、ファイルモードに代わりPipeモードを利用した場合、モデルのトレーニングに費やす時間は全体的に40%も削減される例がありました。Pipeモードと利点の詳細についてはブログの掲示板をご覧ください。 Amazon SageMakerの内蔵アルゴリズムでPipeモードを利用する 本年度初頭に内蔵Amazon SageMakerアルゴリズムで利用するPipe入力モードが初めて発表された時は、protobuf recordIO形式のダータのみをサポートしていました。高処理のトレーニングジョブに特化した特殊な形式です。Pipe入力モードの持つ利点を、CSV形式のトレーニングデータセットでも活用できるようになりました。次のAmazon SageMaker内蔵アルゴリズムでは、Pipe入力モードを使ったCSV形式のデータセットによるトレーニングを全面的にサポートしています: 主成分分析 (PCA) K-Meansクラスタリング K-Nearestネイバー Linear Learner (分類と回帰) ニューラルトピックモデリング ランダムカットフォレスト この新しい機能をトレーニングジョブで利用するためには、通常通りCSVデータベースのAmazon S3の位置を指定し、入力モードで「File」の代わりに「Pipe」を選択します。データ形式やコードの変更をする必要もなく、CSVデータセットはシームレスに流れてきます。 CSVの最適化Pipeモードを使ったより迅速なトレーニング CSV形式でデータセットに新しく実行されるPipeモードは、高度に最適化された高処理を可能にします。Amazon SageMaker Linear Learnerアルゴリズムを合成CSVデータセット上でトレーニングし、Pipe入力モードを使うとパフォーマンスが向上することを実証します。 初のデータセットである3.9GB CSVファイルは、200万個の記録を保有し、それぞれの記録は100個のカンマで切り離された単精度浮動小数点数でした。次はバッチサイズが1000でAmazon SageMaker Linear Learnerアルゴリズムをトレーニングしている間の、PipeモードとFileモードの全体的なトレーニングジョブ実施時間とモデルのトレーニング時間を比較したものです。 ご覧のようにCSVデータセットでPipe入力モードを利用すると、モードをトレーニングする合計時間はAmazon SageMakerにサポートされているインスタンスタイプで40%も削減できることがわかります。 二度目のデータセットである1GB CSVファイルは、400個の記録のみで、それぞれの記録は10万個のカンマで切り離された単精度浮動小数点数でした。バッチサイズが10の早期に実施していたトレーニング基準で再度実施してみました。 Pipeモードを利用したパフォーマンスは著しい向上を見せ、モデルをトレーニングする合計時間はおよそ75%も削減されました。 このような実験の結果は、Pipe入力モードが目覚ましいパフォーマンスの向上をもたらすということを明確に示しています。トレーニングインスタンスへデータセットをダウンロードすることから生じる遅れを避け、トレーニングジョブでより高度は読み込み処理ができるようになります。 Amazon SageMakerを利用する ノートブック見本を活用してAmazon […]

Read More

Amazon SageMaker Jupyterノートブックを使用してAmazon Neptune グラフを分析する

 新しいグラフデータモデルやクエリを作成する、あるいは、既存のグラフデータセットを探索するかどうかに関わらず、結果を視覚化できるインタラクティブなクエリ環境があると便利です。このブログ記事では、Amazon SageMaker ノートブックを Amazon Neptune データベースに接続して、これを実現する方法を紹介します。ノートブックを使用して、データをデータベースにロードし、クエリをして結果を視覚化します。 Amazon Neptune は高速かつ信頼性の高いグラフデータベースです。クエリワークロードで、接続をナビゲートし、エンティティ間の関係の強さ、重さ、または品質を活用する必要がある場合に理想的です。 Amazon SageMaker は、機械学習モデルの構築、トレーニング、および開発のための完全管理プラットフォームです。このブログの記事では、その機能に対応した SageMaker を使用し、ホストされた Jupyter ノートブックを提供します数回クリックするだけで、Jupiter のノートブックを作成し、それを Neptune に接続し、データベースのクエリを開始できます ソリューションの概要 このブログの記事で紹介されているソリューションは、以下のリソースを作成します。 3 つのサブネットと VPC S3 エンドポイントを持つ Neptune VPC 適切なサブネット、パラメータ、およびセキュリティグループを持つ、単一の r4.xlarge インスタンスを含む Neptune クラスター Neptune が S3 からデータをロードすることを許可するIAM ロール SageMaker Jupyter ノートブックインスタンス、IPython Gremlin 拡張モジュール、Gremlin コンソール、および一部のサンプルノートブックコンテンツ Neptune データベースのエンドポイントは、アカウントの新しい VPC にプロビジョニングされます。 SageMaker の Jupyter ノートブックは、Amazon SageMaker VPC […]

Read More

Model Server for Apache MXNet v1.0 がリリース

AWS が最近リリースした Model Server for Apache MXNet (MMS) v1.0 はサービス使用状態を管理するための新しい API を特徴としており、ランタイム中のモデルの動的ロード、レイテンシーの低減、高いスループットを可能にします。本記事では、新機能を詳しくご紹介するとともに、MMS v1.0 のパフォーマンス向上についてご覧いただきます。 Model Server for Apache MXNet (MMS) とは? MMS はモデルサーバーを提供するオープンソースのフレームワークで、スケーラブルなトレーニングおよび推論のための深層学習モデルのタスクを簡略化を目的に設計されました。下図に、MMS のスケーラブルにデプロイしたアーキテクチャの例を示します。 以下は、MMS v1.0 の主要な機能です。 MXNet、Gluon、ONNX ニューラルネットワークモデル対応用途に設計。 モデルアーカイブにパッケージされたカスタムコードを使用して、推論実行パイプラインの各ステップをカスタマイズ。 REST API エンドポイントを含む、軽量かつスケーラブルなサービススタックの事前設定。 ランタイム中のモデルのロード、アンロード、スケーリングを可能にする管理 API の公開。 大規模な推論のためのビルドおよび最適化済みのコンテナイメージ。 リアルタイムのオペレーションメトリクスを使用して、システムおよび API の健全性、パフォーマンス、ロードをモニタリング。 MMS のクイックスタート MMS 1.0 では、Java 8 以上の環境が必須です。サポート対象のプラットフォームごとにインストール方法を以下に示します。 # Ubuntu/Debian ベースのディストリビューション sudo apt-get install openjdk-8-jre # Fedora、Redhat […]

Read More

AWS のディープラーニングを使い、自然災害による損害賠償を軽減する

2017 年のサンタローザ火災やハリケーンハーベイのような自然災害は、毎年何百億 USD もの損害賠償をもたらし、住宅所有者の生活において経済的混乱を招きました。保険会社は影響を受けた家屋を評価するために最善を尽くしますが、評価を開始するまでに数週間かかることもあり、それでようやく家屋を修復し保護することができます。 プロパティデータ分析会社である EagleView 社 は、  AWS における ディープラーニング に取り組んでいます。 EagleView 社のデータサイエンスと機械学習の指導者である Shay Strong は、「通常、保険会社は所有物損害の評価のために損害査定人を派遣するが、その地域が浸水したり、アクセスできないために、対応するのに数週間かかる場合があります。「EagleView 社は、衛星、航空写真、無人機の画像を使い、AWS Cloud でディープラーニングを実行し、24時間以内に損害賠償を正確に評価します。住宅所有者に情報を提供し、次の段階へ準備を迅速に行うために、データを大手保険保険会社や小規模な地域の保険会社の両方に提供しています。 多くの場合、この迅速な処理により、損害賠償において数百万 USD を節約することができます。フロリダ州のハリケーンアーマーからの洪水の際、クライアントはこのタイムリーなデータを使用して、防水シートで家屋の一部を覆い、二次的な水害を防ぐことをできるようにしました。 損害査定人による不動産評価の精度と一致させるために、EagleView 社は嵐の影響を受けた地域の多次元空間 (空間、時間、スペクトル) 全てをカバーする豊富な画像セットを使用する必要があります。この課題を解決するため、EagleView 社は米国全土で、120 台以上の航空機を使用して 1 インチ以下の解像度で撮影します。ディープラーニング画像分類器、オブジェクト検出器、およびセマンティックセグメンテーションアーキテクチャを実行するために、画像を小さな画像タイル(しばしば区画固有のタイルまたは一般的な 256×256 TMS タイル)に分解します。各画像タイルは、対応する地理空間および時間座標と関連付けることができ、追加のメタデータとして保持され、学習プロセスおよび推論プロセスを通じて維持されます。推論後、地理空間データを使用してタイルが貼り合わされて、ニューラルネットワーク予測を含む、関心領域の情報を地理登録したマップを形成することができます。予測は、AWS Cloud で管理されている永続ストレージ用のプロパティレベルのデータベースに集約することもできます。 以下の図は、2017 年のハリケーンハーベイ後のテキサス州ロックポートの一部で、EagleView 社のディープラーニングモデルによる損傷予測の精度を示しています。左の画像の緑色の箇所は、人間の分析結果による壊滅的な構造的損傷が発生する土地を示します。右側の画像のピンクの箇所は、モデルが作成したセグメント化した損傷予測です。このデータの場合、モデルは人間の分析と比較してアドレス当たり 96 % の精度を持ちます。 「暫定的な前処理能にディープラーニングを使い、アドレスレベルの属性を生成する前に画像が良好であるかどうか (たとえば、曇っていないか、ぼやけていないかなど)、また画像に関心のある適切な土地が含まれているかどうかを見極めます。我々は中間神経網を鎖状につないで、画像を前処理して、土地属性を生成するニューラルネットの効率と精度を向上させています。」と Strong 氏は付け加えています。 EagleView 社は、Apache MXNet フレームワークを使用してディープラーニングモデルを構築しました。モデルは、 AWS 上の Amazon EC2 P2、P3、およびG3 GPU […]

Read More

Amazon Translate が 113 の新言語ペアを提供できるようになりました

Amazon Translate は、良心的な価格で迅速かつ高品質な翻訳を実現するニューラル機械翻訳サービスです。本日、113 の新言語ペアの提供が開始されます。フランス語からスペイン語など、現在サポートされている言語間を単一の API リクエストで翻訳することができるようになりました。この更新により、サポートされる言語ペアの数が 24 から 137 に拡大されます。サポートされる言語ペアはすべて、最先端のニューラル機械翻訳アルゴリズムに基づいています。このドキュメントページでサポート対象言語ペアの完全なリストをご覧ください。 これまで、X <> Y ペア (X 語と Y 語のどちらも英語以外の言語) を翻訳する場合には、2 つの翻訳コールを順に実行する必要があり、X 語を英語に翻訳した後で、英語の出力を Y 語に翻訳しなければなりませんでした。つまり、実際に必要な翻訳を得るためには、翻訳を 2 度実行しなければならないということです。新しい拡大によって、この余分なステップが取り除かれると共に、X <> Y 翻訳のコストが実質上 50 パーセント削減され、翻訳が迅速化されます。 パリに拠点を置くスタートアップ企業、Clevy は、従業員からのよくある質問に自動的に返答するチャットボットを組織が作成、デプロイ、および維持することを可能にするプラットフォームを提供しています。これらの質問は、HR、IT サポート、および変更管理など、社内における事柄である場合がほとんどです。そのボットを通じて、Clevy は世界各国 100 万人を超える従業員にサービスを提供しています。Clevy は、このチャットボットを多言語対応とするために、その背景で Amazon Translate を使用しています。ボットは単一の言語で作成されますが、ユーザーは現在、10 もの他言語で質問することができます。質問が来ると、Clevy は Amazon Comprehend を使ってソース言語を検知します。次に、Clevy は Amazon Translate を使って質問をボットの言語に翻訳し、それを Clevy 独自の自然言語処理 (NLP) アルゴリズムで処理できるようにします。最後に、ユーザーに対して、ユーザーの元の言語で回答が返されます。例えば、英語でボットを作成する顧客は、世界各国の従業員が 10 の他言語で質問し、回答を得ることがきるようにすることもできます。 そのボットに多言語処理を追加することは、Clevy […]

Read More

Amazon SageMaker ノートブックインスタンスのネットワーク設定と高度なルーティングオプションについて理解する

Amazon SageMaker ノートブックインスタンスは、完全マネージド型の機械学習 (ML) Amazon EC2 インスタンスを通じて、Jupyter ノートブックアプリケーションを提供します。Amazon SageMaker Jupyter ノートブックは、高度なデータ探索、トレーニングジョブの作成、Amazon SageMaker ホスティングへのモデルのデプロイ、モデルのテストや検証に使用されます。 ノートブックインスタンスには、さまざまなネットワーク設定が用意されています。このブログ記事では、さまざまなオプションの概要を説明するとともに、お客様の一般的な事例を紹介していきます。 ベーシック Amazon SageMaker ノートブックインスタンスは、Virtual Private Cloud (VPC) がアタッチされているかどうかにかかわらず起動できます。VPC をアタッチして起動すると、ノートブックは、直接インターネット接続ありまたはなしで設定することができます。 重要な注意事項: 直接インターネット接続があるとは、Amazon SageMaker サービスが、サービスによって管理される VPC を通じて、ノートブックをインターネットに接続できるネットワークインターフェイスを提供していることを意味します。 Amazon SageMaker コンソールを使用する際、次の 3 つのオプションがあります。 お客様の VPC のアタッチなし。 お客様の VPC のアタッチあり (直接インターネット接続あり)。 お客様の VPC のアタッチあり (直接インターネット接続なし)。 それはどういう意味ですか? 3 つのオプションはそれぞれ、マネージド EC2 インスタンスのネットワークインターフェイスを一連のルーティング設定で自動的に設定します。特定の状況では、これらの設定を変更して、特定の IP アドレスの範囲を別のネットワークインターフェイスにルーティングすることができます。次に、これらのデフォルト設定をそれぞれ順を追って説明します。 アタッチしたお客様の VPC なし […]

Read More

Amazon SageMaker のバッチ変換が Amazon VPC および AWS KMS に基づく暗号化をサポート開始

Amazon SageMaker が、Amazon Virtual Private Cloud (Amazon VPC) での AWS Key Management Service (AWS KMS) を使用するバッチ変換ジョブのサポートを開始します。Amazon VPC を使用すると、機械学習 (ML) モデルのコンテナやデータへのアクセスをコントロールし、それらをプライベートに保ってインターネット経由でアクセスできないようにすることができます。AWS KMS を使用すると、バッチ変換ジョブを実行する ML コンピューティングインスタンスにアタッチされたストレージボリュームのデータを暗号化できます。これにより、バッチ変換ジョブで使用されるモデルのアーティファクト、ログ、および一時ファイルは常に安全です。このブログでは、こうした機能をバッチ変換ジョブに適用する方法を説明します。 Amazon SageMaker のバッチ変換は、データのバッチが大量にあり、トレーニングデータを前処理して変換する必要があるか、レイテンシーが 1 秒未満であることを必要としないシナリオに最適です。バッチ変換は、ペタバイトのデータから非常に小さなデータセットまで、さまざまなデータセットで使用できます。既存の機械学習モデルは、一切の変更なしで、この新しい機能でシームレスに動作します。Amazon SageMaker は、バッチ変換ジョブの開始時にリソースのプロビジョニングを管理します。ジョブが完了するとリソースが解放されるので、ジョブの実行中に使用されたリソースに対してのみを支払うことになります。 VPC を使用すると、プライベートでインターネットに接続されないように VPC を設定できるため、データやモデルアーティファクトを保存する Amazon S3 バケットなど、アクセスするモデルコンテナや AWS リソースを保護することができます。VPC を使用する場合、VPC フローログを使用して、モデルコンテナ内外のすべてのネットワークトラフィックを監視することもできます。VPC を指定しない場合、Amazon SageMaker はデフォルトでは VPC でバッチ変換ジョブを実行します。 Amazon SageMaker のバッチ変換は、すでに Amazon S3 SSE による入出力データの暗号化をサポートしています。現在は、AWS KMS を使用すると、バッチ変換ジョブで使用するストレージボリュームを、管理する暗号化キーで保護できます。推論を実行したり、データのバッチを変換したりするときに、集中キー管理、キー使用状況監査ログ、マスターキーローテーションなどの […]

Read More