投稿日: Jul 31, 2019

Amplify フレームワーク は、クラウド対応のモバイルアプリケーションとウェブアプリケーションを構築するオープンソースプロジェクトです。 

今日から、Amplify フレームワークに「予測」という新しいカテゴリが追加になりました。これにより、開発者はわずか数行のコードで、ウェブおよびモバイルアプリケーションに AI/ML ベースのユースケースを簡単に追加、設定できます。過去の機械学習の経験は必要ありません。開発者は、Amplify CLI と一緒に、Amplify JavaScript ライブラリまたは Amazon AI/ML サービス用に生成された iOS および Android SDK のいずれかを使用して、これらのユースケースを実行できます。

Amplify CLI を使用すると、開発者は簡単にバックエンドを設定し、エンティティ認識のためにオンデマンドでイメージのインデックス作成を行って Amazon Rekognition のコレクションを自動更新するなどの高度なユースケースを編成できるようになります。実際の画像のバイト数は、Amazon Rekognition では保存されません。たとえば、開発者が実行時に Amplify ストレージオブジェクトを使用してイメージを安全にアップロードし、コレクションの自動更新をトリガーすることが可能です。その後、アプリケーションは、先にアップロード済みのイメージと一致するエンティティを識別するため、予測ライブラリを使用して推論呼び出しを行うことができます。さらに、Amplify CLI から SageMaker エンドポイントをセットアップまたはインポートできます。

ウェブ開発者は、新しい予測カテゴリの Amplify JavaScript ライブラリを使用して、テキスト翻訳、音声からのテキスト生成、画像認識、 テキストから音声への変換、テキストからの洞察などの AI/ML ユースケースをウェブアプリケーションに追加できます。サポートされるユースケースでは、Amazon Rekognition、Amazon Translate、Amazon Polly、Amazon Transcribe、Amazon Comprehend、Amazon Textract などのサービスを活用します。

モバイル開発者は、SageMaker 用の新しい iOS SDK と Android SDK を使用し、HTTPS エンドポイントを介して SageMaker でホストされているカスタムモデルに推論のリクエストを行うことができます。Android SDK には、開発者がスキャンしたドキュメントからテキストやデータを抽出できる Amazon Textract のサポートも含まれています。これらのサービスは、iOS および Android SDK でサポートされている既存の AI サービスのリストに追加されます。

予測カテゴリの使用方法の詳細については、ブログ記事を参照してください。Amplify フレームワークの詳細については、ドキュメントをご覧ください。