投稿日: Jul 26, 2021
Amazon SageMaker JumpStart は、TensorFlow Hub、PyTorch Hub、Hugging Face (「モデルの動物園」とも呼ばれます) の定評あるモデルコレクションと 16 のエンドツーエンドソリューションにワンクリックでアクセスできるため、機械学習の問題をすばやく簡単に解決でき、需要予測、不正検出、ドキュメント理解などの一般的なビジネス上の問題を解決します。
本日より、SageMaker JumpStart は、PyTorch ハブと MxNet GluonCV からの 20 の最先端の微調整可能な物体検出モデルをサポートします。モデルには、MS-COCO および PASCAL VOC データセットで事前トレーニング済みの YOLO-v3、FasterRCNN、および SSD が含まれます。お客様は、こうした事前トレーニング済みモデルを使用して、ワンクリックで SageMaker にそのままデプロイすることで、画像内のさまざまな物体を認識することができます。また、独自のデータセットでこれらのモデルを微調整して、事前レーニングのデータセットに存在するものとは異なる物体を識別し、より正確な予測を行うこともできます。
現在、SageMaker JumpStart は、TensorFlow Hub からのResNet、MobileNet、EfficientNet などを含む 52 の最先端の画像分類モデルの画像特徴ベクトル抽出もサポートしています。お客様は、これらの新しいモデルを使用して、画像の特徴ベクトルを生成することができます。生成される特徴ベクトルは、高次元ユークリッド空間での画像の表現になります。これらを使用して、画像を比較し、画像検索アプリケーション向けに類似点を特定できます。
さらに、SageMaker JumpStart は、テキスト生成用の 5 つの GPT-2 モデルと、Hugging Face からの 21 の文章ペア分類モデルも追加しました。こうした最先端の GPT-2 モデルは、お客様がいくつかの単語の入力から一貫性のある英語の文章を生成するのに役立ちます。文章ペア分類モデルを使用して、自然言語の推論を実行できます。
以下の画像は、SageMaker JumpStart で利用可能な 64 のテキストモデルと 196 のビジョンモデルのサンプルビューを示しています。