張貼日期: Jul 31, 2019

Amplify Framework 是建立具有雲端功能的行動和 Web 應用程式的開放原始碼專案。 

從今天開始,Amplify Framework 新增了一個名為「預測」的新類別,開發人員只要使用幾行程式碼,即可在 Web 和行動應用程式新增和設定 AI/ML 使用案例。不需要機器學習相關經驗。開發人員可以使用 Amplify CLI,以及 Amplify JavaScript 程式庫 (使用新的預測類別) 或針對 Amazon AI/ML 服務產生的 iOS 和 Android 開發套件完成這些使用案例。

Amplify CLI 可讓開發人員輕鬆設定後端和協調進階使用案例,例如隨需建立影像索引,自動更新 Amazon Rekognition 中的集合以進行實體辨識。Amazon Rekognition 不會存放實際的影像位元組。例如,這可讓開發人員在執行時間使用 Amplify 儲存物件安全地上傳影像,以觸發集合的自動更新。然後,應用程式可以使用預測程式庫進行推論呼叫,以辨識符合先前上傳影像的實體。此外,您可以從 Amplify CLI 設定或匯入 SageMaker 端點。

Web 開發人員可以使用 Amplify JavaScript 程式庫搭配新的預測類別,在 Web 應用程式新增各種 AI/ML 使用案例,例如文字翻譯、將語音轉換為文字、影像辨識、文字轉語音,以及在文字探索洞見。支援的使用案例採用 Amazon Rekognition、Amazon Translate、Amazon Polly、Amazon Transcribe、Amazon Comprehend 和 Amazon Textract 等服務。

行動開發人員可以使用適用於 SageMaker 的全新 iOS 和 Android 開發套件,透過 HTTPS 端點在 SageMaker 託管的自訂模型發出推論請求。Android 開發套件還包含 Amazon Textract 支援,讓開發人員可以從掃描的文件中擷取文字和資料。這些服務增加了 iOSAndroid 開發套件中支援的現有 AI 服務項目。

有關如何使用預測類別的詳細資訊,請參閱我們的部落格文章。要進一步了解 Amplify Framework,請參閱我們的文件。