Amazon Web Services ブログ

Category: Artificial Intelligence

Amazon Translate が Office ドキュメントのサポートを開始

  組織が多くの国で展開する多国籍企業であろうと、グローバルな成功を渇望している小さな新興企業であろうと、コンテンツを現地の言語に翻訳する課題にいつまでも悩まされることがあります。実際、テキストデータには多くの形式があり、それらを処理するにはさまざまなツールが必要になる場合があります。また、これらのツールはすべて同じ言語ペアをサポートしていない場合があるため、特定のドキュメントを中間形式に変換するか、手動翻訳に頼らざるを得ないこともあります。このような問題はすべて追加のコストを発生させ、一貫性のある自動翻訳ワークフローを構築することが不必要に複雑になってしまいます。 Amazon Translate は、こういった問題をシンプルで費用効果の高い方法で解決することを目指しています。Amazon Translate は、AWS コンソールまたは 1 回の API 呼び出しのいずれかを使用して、AWS のお客様が苦労することなくテキストを 55 の異なる言語と変異形に迅速かつ正確に翻訳できるようにします。 今年前半、Amazon Translate は、プレーンテキストと HTML ドキュメント用のバッチ翻訳を導入しました。本日、バッチ翻訳が Office Open XML 標準で定義されている Office ドキュメント、つまり、.docx、.xlsx、および .pptx ファイルもサポートするようになったことを発表します。 Office ドキュメント向けの Amazon Translate のご紹介 プロセスは非常に簡単です。ご想像のとおり、ソースドキュメントは Amazon Simple Storage Service (S3) バケットに保存する必要があります。20 メガバイトを超えるドキュメントや 100 万文字を超えるドキュメントは保存できません。 各バッチ翻訳ジョブは、単一のファイルタイプと単一のソース言語を処理します。したがって、S3 で論理的にドキュメントを整理し、各ファイルタイプと各言語に独自のプレフィックスを付けて保存することをお勧めします。 次に、AWS コンソールを使用するか、いずれかの AWS 言語 SDK で StartTextTranslationJob API を使用して、以下を渡して翻訳ジョブを起動できます。 S3 […]

Read More

Amazon Fraud Detector が一般提供されました

  発表内容 Amazon Fraud Detector が一般提供されました!🥳 2019 re:Invent での発表を逃したという皆さんのために説明すると、Amazon Fraud Detector は当初、2019 年 12 月 3 日にプレビューモードでリリースされました。その Amazon Fraud Detector が本日一般提供され、お客様にお試しいただけるようになります。 Amazon Fraud Detector とは Amazon Fraud Detector は、オンライン決済詐欺や偽のアカウントの作成など、不正行為の可能性があるオンライン活動を簡単に特定できるようにするフルマネージドサービスです。 毎年、オンライン詐欺のために世界中で数百億ドルの損害が出ていることをご存知ですか? オンラインビジネスを持つ企業は、偽のアカウントや盗まれたクレジットカードで行われた決済などの不正活動に絶えず目を光らせておく必要があります。  詐欺師を特定する試みのひとつは不正行為検出アプリの使用で、これらには機械学習 (ML) を使用するものもあります。 そこで登場するのが Amazon Fraud Detector です! これは、データ、ML、および Amazon の 20 年を超える不正検出の専門技術を用いて不正行為の可能性があるオンライン活動を自動的に識別するため、より多くの不正行為をより迅速に見つけることができます。Fraud Detector は ML に関する困難な作業のすべてを処理するため、ML 経験がなくてもほんの数クリックで不正検出モデルを作成することが可能です。 Fraud Detector の仕組み 「どんな仕組みになってるの?」と言われるかもしれません。🤷🏻‍♀️ よくぞ聞いてくださいました! では、これを […]

Read More

【開催報告】AWS AI/ML@Tokyo #5

アマゾン ウェブ サービス ジャパン株式会社の呉(Twitter: @kazuneet)です。AWS Japan では、2020年からAI/ML関連情報を発信するイベント「AWS AI/ML@Tokyo」を定期的に開催しています。2020年7月9日にオンラインで開催された AWS AI/ML@Tokyo #5では、AWS Japan によるAmazon EKS (Kubernetes + Kubeflow) と Amazon SageMaker を題材とした機械学習基盤選択の考え方と、 実際に機械学習基盤として Amazon SageMaker と Airflow を組み合わせた機械学習パイプラインを構築されたお客様をゲストスピーカーにお招きし、お客様による「体験談」をお話し頂きました。

Read More

新機能 – Amazon SageMaker Ground Truth による動画のラベル付け

AWS re:Invent 2018 で提供を開始した Amazon Sagemaker Ground Truth は、機械学習データセットに簡単に注釈を付けることができる Amazon SageMaker の 1 機能です。お客様は、画像やテキストおよび 3D ポイントクラウドデータには組み込みのワークフローを、また他のデータタイプにはカスタムワークフローを使用して、効率的かつ正確なラベルを付け実施することができます。データサンプルは自動的に作業担当者(社内、サードパーティー、または MTurk)に配布されます。また、注釈は Amazon Simple Storage Service (S3) に保存されます。オプションの自動データラベル付けを有効にすると、データセットのラベル付けに必要な時間と関連するコストの両方を削減することもできます。 現在、モデルの精度が向上するにつれ、AWS のお客様が動画コンテンツの予測に機械学習を適用する機会もますます増えています。自律運転は、安全性の面から、道路状況や移動する物体を正確に検知しリアルタイムで追跡することが求められるということで、おそらく最も知られたユースケースと言えるでしょう。動画の予測はスポーツの分野にも普及しているアプリケーションです。ここでは、プレーヤーやレースカーを追跡し、ファンを喜ばせるための、あらゆる種類の統計情報を計算しています。医療機関においても、医療画像内の解剖学的対象を特定および追跡するために、動画予測技術を利用しています。製造業では、組み立てライン上の物体、出荷する荷物、その他の対象に対し、同様な技術を適用しています。こういった実例の枚挙にはいとまがありませんし、また、他の多くの業界においても素晴らしい応用例が登場し続けているのです。 もちろん、これらには動画データセットの構築とラベル付けが必要であり、追跡の対象には手動でのラベル付けが行われます。毎秒 30 フレームとしても、動画 1 分間では 1,800 個の個別画像が転送されることになり、そのための作業は即座に手に余る量に達してしまいます。さらに言えば、画像へのラベル付けやワークフローの管理、さらにその他の目的で、専用ツールを構築する必要もあるのです。これらの作業は、コアビジネスに向けるべき相当量の時間とリソースを、組織から奪い去ってしまいます。 AWS では、このためのより良いソリューションのご要望をお客様からいただいてきました。そして本日、Amazon Sagemaker Ground Truth が動画のラベル付け機能をサポートすることを発表できるようになりました。 お客様でのユースケース例: National Football League National Football League (NFL) では、この機能が既に稼働しています。NFL のプレーヤーヘルスとイノベーション担当 SVP である、Jennifer Langton 氏によれば、「National Football League (NFL) […]

Read More

レジなし無人販売冷蔵庫を構築できる、This is my Smart Cooler プログラムを公開しました

AWS は、デジタル変革を進める小売業のお客様からの 「最先端のリテールソリューションを内製したい」というご要望にお応えするために、お客様自らがレジなし無人販売冷蔵庫を迅速に構築し学習や体験ができる This is my Smart Cooler プログラムを発表します。

Read More

イノベーションの加速: AWS のサーバーレス機械学習は F1 で洞察を得るのにどのように役立つか

 FORMULA 1 (F1) は 2020 年に 70 周年を迎えます。これはリアルタイムのスキルとエンジニアリングおよび技術力を組み合わせた数少ないスポーツの 1 つです。F1 では常にテクノロジーが中心的な役割を果たしてきました。ルールとツールの進化が F1 の DNA に組み込まれています。レースは 10 分の 1 秒で雌雄を決するので、ファンは引き込まれ、ドライバーとチームは常に限界にチャレンジし続けています。 ピットストップは 2 秒未満~ 1 分超まで、5G がかかるコーナリングとブレーキング、最高速度は時速 375 km に達し、22 か国でレースが開催されています。その進化と新技術の採用においてこれほどダイナミックなスポーツはありません。FORMULA 1 は継続的にイノベーションを追求しており、最新のイノベーションは、ドライバーとチームが一瞬で決定したことを視聴者に伝えることによって、5 億を超えるファンの成長基盤のエクスペリエンスを強化し、データと分析の力によってトラック上とトラック外で何が起こるかについての理解を向上させています。 各レースカーに 300 のセンサーが装着され、1 秒あたり 1.1M のデータポイントを生成してレースカーからピットに送信されるため、ファンのエクスペリエンスは反応型からリアルタイムにシフトしています。これにより、トラック上でのアクションが加速しています。F1 は、Amazon SageMaker で作成され、AWS Lambda でホストされている機械学習 (ML) モデルなどのクラウドネイティブテクノロジーを活用することで、ドライバーのパフォーマンス、そして限界にチャレンジしているかどうかをピンポイントで調べることができます。その結果、オーバーテイクやピットストップの戦いの結果を予測できます。放送パートナーやデジタルプラットフォームを通じて、世界中のファンとこのような洞察を瞬時に共有できます。 この記事では、Amazon ML Solutions Lab とプロフェッショナルサービスチームが F1 と協力して、AWS テクノロジーを駆使したリアルタイムのレース戦略予測アプリケーションをどう構築して、「ピットウォール」(チームの司令基地) の決定を視聴者に伝えているか、そしてそれがどう […]

Read More

Amazon SageMaker での AutoGluon-Tabular の活用 AWS Marketplace 編

前回の記事では、Amazon SageMaker で独自コンテナを用いて AutoGluon-Tabular を活用し、数行で高精度な機械学習モデルが構築できることをご紹介致しました。今回は、AWS Marketplace に出品されている AutoGluon-Tabular のソフトウェアを活用し、コードを記述することなく、機械学習モデルを構築する方法をご案内します。 AWS Marketplace は、ソフトウェア、データ、およびサービスを簡単に検索、購入、デプロイ、管理するために使用できる厳選されたデジタルカタログであり、セキュリティ、ネットワーク、ストレージ、データベース、といった様々なカテゴリに属する何千というソフトウェアが出品されています。今回は新しく、AutoGluon-Tabular が出品されたので、こちらを使用して機械学習モデルを構築してみます。 Step1: CSVファイルを用意します AutoGluon-Tabular ではテーブルデータを対象としています。学習データやテストデータは、pandas などの標準的なライブラリを使用して Python で読み込める有効な CSV ファイルとして格納されていれば良く、手動で前処理を行う必要はありません。各カラム名に該当するヘッダーは付けてください。後のステップで予測対象の目的変数のカラム名を指定します。 今回は、元のデータを7:3の比率で学習データとテストデータにランダムに分割し2つのファイルを作成しました。 Step2: CSVファイルをS3にアップロードします Step1 の CSV ファイルを Amazon S3 にアップロードしましょう。 Step3: SageMakerのコンソールでトレーニングジョブを実行します まず、SageMaker のコンソールの左ペインにある「アルゴリズム」(下記1)のセクションをクリックし、表示された右上の「アルゴリズムを探す」ボタン(下記2)をクリックしてください。 飛んだ先のマーケットプレイスのページの検索ボックスで autogluon を検索して、表示された「 AutoGluon-Tabular 」をクリックしてください。 飛んだ先のマーケットプレイスの AutoGluon-Tabular のページで「 Continue to Subscribe 」ボタンをクリックしてください。 料金やライセンスに関する説明が表示されますので、確認して「 Accept Offer 」ボタンをクリックしてください。AutoGluon-Tabular は OSS  であり、アルゴリズムの使用自体には料金は発生しません。SageMaker […]

Read More

Amazon SageMaker での AutoGluon-Tabular の活用 BYOC 編

表データに対する分類、回帰というタスクは機械学習のタスクの中でもビジネスに最も親密に結びついています。もし、以前にこのようなタスクに取り組まれていたなら、表データに対する推論の利用用途が多岐にわたることをご存知でしょう。ビジネスにおいて、ユーザーの購買活動、保険請求金額、医療レポート、IoT からのセンサーデータなど多種多様なソースから収集したデータに基づいて、機械学習モデルを構築することが重要となります。しかしながら、そのような多様性のあるデータを扱うことは容易ではありません。 このような問題に対し、これまでは専門家による懇切丁寧な特徴量エンジニアリングを通したアプローチがとられていました。しかしながら、近年、機械学習コンペティションでは複数のモデルのアンサンブルによるアプローチが主流となりつつあります。コンセプトとなっているのは複数のモデルを組み合わせてさらに良いモデルを作ることです。これは集合知と呼ばれており、それぞれのモデルがより多様で独立しているときに効果を発揮します。 AutoGluon-Tabular ではこのアイデアを取り入れています。多層スタックアンサンブルという手法も用いることにより AutoGluon-Tabular は AutoML のフレームワークとして様々なタスクに対して優れた精度を記録しています。また、AutoGluon-Tabular はシンプル、堅牢、高効率、高精度、フォールトトレラントを考慮しデザインされており、複雑な処理なしに高精度のモデルが作成可能です。 この AutoGluon-Tabular は Amazon SageMaker の独自コンテナ および AWS Marketplace を活用頂くことで簡単にお使い頂けます。これにより、たった数行のコードで高精度な機械学習モデルを作成することが可能となります。また、フルマネージドサービスである Amazon SageMakerを 利用することで、ラベリングタスクとの統合、セキュアでスケーラブルなモデルの作成、スポットインスタンスを利用したコスト削減が可能となります。 この投稿では、Amazon SageMaker での独自コンテナを活用する、BYOC( Bring Your Own Container ) という方法で AutoGluon-Tabular の活用 し、高精度な学習モデルを作成、デプロイし、すぐさまお客様のビジネスに利用する方法をご紹介します。また、次回の記事では、AWS Marketplace にあるソフトウェアを用いることで、コードを記述することなく活用頂く方法についてもご案内しています。 Amazon SageMaker での独自コンテナを用いた AutoGluon-Tabular の活用 本セクションでは、Amazon SageMaker ノートブックインスタンスを用いて、AutoGluon-Tabular モデルを学習し、推論を行う方法について順を追ってご説明致します。サンプルコードの詳細については、GitHub のリポジトリを参照下さい。 ステップ1: SageMaker ノートブックインスタンスの作成 このチュートリアルの最初のステップは、SageMaker ノートブックインスタンスを作成することです。今回は、コストの低い ml.t2.medium インスタンスを選びます。作成の際には、AmazonSageMakerFullAccess ポリシーを含む […]

Read More

Cisco は、ハイブリッド機械学習ワークフローを作成するために Amazon SageMaker と Kubeflow を使用

この記事は、Cisco の AI/ML ベストプラクティスチームのメンバーによるゲスト投稿です。そのメンバーには、テクニカルプロダクトマネージャーの Elvira Dzhuraeva 氏、上級エンジニアの Debo Dutta 氏、プリンシパルエンジニアの Amit Saha 氏が含まれます。 Cisco は、多くのビジネスユニットに機械学習 (ML) と人工知能 (AI) を適用する大企業です。CTO オフィスにある Cisco AI チームは、AI と ML を使用するビジネスユニット全体の会社のオープンソース (OSS) AI/ML ベストプラクティスを担当しています。また、Kubeflow オープンソースプロジェクトと MLPerf/MLCommons の主要な貢献者でもあります。チームの使命は、Cisco のビジネスユニットとお客様の両方が使用できるアーティファクトとベストプラクティスを ML で作成することです。このソリューションはリファレンスアーキテクチャとして共有しています。 ローカライズされたデータ要件などのビジネスニーズに応えて、Cisco はハイブリッドクラウド環境を運用しています。モデルトレーニングは独自の Cisco UCS ハードウェアで行われますが、多くのチームはクラウドを活用して推論を行い、スケーラビリティ、地理的冗長性、復元力を活かしています。けれども、ハイブリッド統合では一貫した AI/ML ワークフローを構築してサポートするために深い専門知識と理解が必要になることが多いため、このような実装はお客様にとって困難な場合があります。 これに対処するために、Amazon SageMaker を使ってクラウド内のモデルにサービスを提供するハイブリッドクラウドを実装するために、Cisco Kubeflow スターターパックを使用する ML パイプラインを構築しました。このリファレンスアーキテクチャを提供することで、お客様が複雑なインフラストラクチャ全体でシームレスで一貫性のある ML ワークロードを構築して、直面する可能性のあるあらゆる制限を満たすことを支援することを目指しています。 Kubeflow は、Kubernetes 上の ML […]

Read More

AWS Machine Learning Research Awards 2019 年第 4 四半期のウィナー

AWS Machine Learning Research Awards (MLRA) は、機械学習 (ML) の進化を目指し、革新的な研究やオープンソースプロジェクトへの資金提供、学生へのトレーニング、研究者への最新技術の提供を行っています。2017 年以来 MLRA では、13 か国に広がる 73 の学校および研究機関における、180 を超える研究プロジェクトをサポートしてきました。そのトピックは、ML アルゴリズム、コンピュータビジョン、自然言語処理、医学研究、ニューロサイエンス、社会科学、物理学、ロボット工学に及びます。 2020 年 2 月 18 日に、MLRA 2019 年第 2、3 四半期提案募集サイクルのウィナーを発表しました。本日は、MLRA 2019 年第 4 四半期提案募集サイクルのウィナー 28 名を発表します。今回の MLRA ウィナーは、6 か国、26 機関の代表者たちです。ML コミュニティに広く寄与するオープンツールソースや研究の開発、または AWS ML ソリューション (Amazon SageMaker、AWS AI サービス、Apache MXNet on AWS など) を使ったインパクトのある研究の開発を目指したプロジェクトが資金を獲得しました。それでは、2019 年第 4 四半期のウィナーをご紹介します。 ウィナー 機関 […]

Read More