Amazon Web Services ブログ

オンライン「AWS 金融Webinar シリーズ」開催!

社会環境は激変しましたが、これもニューノーマルとして定着し、金融機関の皆様におかれても、さらなるIT活用・デジタル化の重要度が一気に高まっております。 AWSでは、そのような環境への対応をご支援すべく、ITインフラに関する短期即効性のある取組、及び中長期のビジネスモデル変革への取組にお役立ていただけるよう、金融機関及び関連業界の皆様に向けたオンラインWebinarシリーズを実施させて頂くこととしました。 各Webinarの概要を以下にご案内いたします。 職場やご自宅など、どこからでもお気軽にご参加いただくことができるオンライン セミナーにぜひご参加ください! ① すぐにできる! 金融ITの運用・コストの課題解決とセキュリティ強化  (7月13日(木)16:00~17:20) このセッションでは、すぐに採用・有効化できる即効性の高い金融ITソリューションとして、以下の2つのトピックをご紹介します。  1つ目は、現行オンプレミスの課題であるとのお声を頂く機会が多いファイルサーバについて、その課題とクラウド上への移行を速やかに実現する手段として、リリース後、様々な機能強化がなされている「Amazon FSx for Windows File Server」の概要と導入ステップをご説明いたします。 2つ目として、金融機関でAWSを利用いただく上では、欠かすことのできないセキュリティサービスの活用方法をご紹介します。 AWSに係わる操作や設定変更の記録サービスや、脅威検出を行うサービスのご紹介を通じて、AWS上に構築されたシステムに関する事象を把握し、ビジネス上のインパクトが発生する前に問題を特定し、リスクを低減する方法を取り上げます。先ごろ6月30日には、金融庁からもIT・サイバーセキュリティの取組に関するレポートもリリースされました。そちらも踏まえてご検討頂ければと考えております。 ② 金融顧客サービス・業務効率化における AI/機械学習の活用 (7月30日(木)16:00~17:20)  今後、金融ビジネスでは、対面での顧客応対や店舗の削減に向け、顧客対応及び業務処理について、効率化と品質維持・向上の両立がますます高いレベルで求められます。 本セッションでは、金融業界のビジネスリーダーおよびマネジメント層の皆様に対し、そのような状況も踏まえて、AI/機械学習(以下「AI/ML」)をビジネス、特に顧客対応や業務効率化に向けて活用する必要性と、実際に活用する際の課題解決の方法を紹介します。AI/ML導入を進める上では、技術的な難しさに着目しがちですが、技術的な課題の解決だけでは、実ビジネスに貢献するプロジェクトの実現は困難です。本セッションでは、効果的にAI/MLをビジネスで活用するために必要な意識付けについて説明します。また、金融業界におけるAI/ML活用事例の解説とともに、AWSが提供するAI/ML活用支援プログラムについてもご紹介します。 ③ 変化する規制・制度への RegTech 活用  (8月6日(木)16:00~17:20)  金融機関はバーゼルをはじめとする規制変更、FATFをはじめとするガバナンスの整備強化、時価開示会計基準の変更といった制度変更への対応が求められています。またさらに、金融検査マニュアルの廃止に伴う、自主管理のフレームワークづくりを継続的に行う必要に迫られています。このような環境の中では経営効率化の観点から、柔軟で低コストの対応が行なえるRegtechが注目されています。本セッションでは今後も変化を続ける規制・制度変更への対応を、コストを抑えかつ迅速に対応を進めていくための、AWS サービスの活用ポイントを解説します。また規制・制度の変化に柔軟に対応している先進的な金融機関の事例をご紹介します。さらに金融機関のリスク管理では多くのコンピュータリソースを必要とし、多額の投資を必要とするシミュレーション計算が求められています。この課題に対し AWS の HPC 技術を適用することでコストの最適化を図る方法についても、ご紹介いたします。 ④ オルタナティブデータ活用による新たな Insight の発掘 (8月13日(木)16:00~17:20)  金融業界においてもオルタナティブデータ活用による投資機会の発見や、審査モデルの高度化といった新サービス創出の流れが起きています。また、自社内に蓄積されたデータを分析することで新たな価値を見出し、新たなデータビジネスを創出する動きもあります。このセッションでは海外の先進金融機関におけるオルタナティブデータの活用事例をご紹介するとともに、AWS Data Exchange 利用による新たなデータビジネス創出についてご紹介します。併せて、金融機関がオルタナティブデータを含めたビッグデータを収集・分析し活用していくために、データレイクを構築し環境を整備していくためのポイントについて解説します。また後半では、オルタナティブデータ活用の海外の事例だけではなく、国内の新しいデータビジネスへの取り組み事例についてもご紹介いたします。 金融Webinar シリーズ お申込みはこちら  https://pages.awscloud.com/JAPAN_FSI_WEBINAR.html

Read More

Amazon SageMaker での AutoGluon-Tabular の活用 AWS Marketplace 編

前回の記事では、Amazon SageMaker で独自コンテナを用いて AutoGluon-Tabular を活用し、数行で高精度な機械学習モデルが構築できることをご紹介致しました。今回は、AWS Marketplace に出品されている AutoGluon-Tabular のソフトウェアを活用し、コードを記述することなく、機械学習モデルを構築する方法をご案内します。 AWS Marketplace は、ソフトウェア、データ、およびサービスを簡単に検索、購入、デプロイ、管理するために使用できる厳選されたデジタルカタログであり、セキュリティ、ネットワーク、ストレージ、データベース、といった様々なカテゴリに属する何千というソフトウェアが出品されています。今回は新しく、AutoGluon-Tabular が出品されたので、こちらを使用して機械学習モデルを構築してみます。 Step1: CSVファイルを用意します AutoGluon-Tabular ではテーブルデータを対象としています。学習データやテストデータは、pandas などの標準的なライブラリを使用して Python で読み込める有効な CSV ファイルとして格納されていれば良く、手動で前処理を行う必要はありません。各カラム名に該当するヘッダーは付けてください。後のステップで予測対象の目的変数のカラム名を指定します。 今回は、元のデータを7:3の比率で学習データとテストデータにランダムに分割し2つのファイルを作成しました。 Step2: CSVファイルをS3にアップロードします Step1 の CSV ファイルを Amazon S3 にアップロードしましょう。 Step3: SageMakerのコンソールでトレーニングジョブを実行します まず、SageMaker のコンソールの左ペインにある「アルゴリズム」(下記1)のセクションをクリックし、表示された右上の「アルゴリズムを探す」ボタン(下記2)をクリックしてください。 飛んだ先のマーケットプレイスのページの検索ボックスで autogluon を検索して、表示された「 AutoGluon-Tabular 」をクリックしてください。 飛んだ先のマーケットプレイスの AutoGluon-Tabular のページで「 Continue to Subscribe 」ボタンをクリックしてください。 料金やライセンスに関する説明が表示されますので、確認して「 Accept Offer 」ボタンをクリックしてください。AutoGluon-Tabular は OSS  であり、アルゴリズムの使用自体には料金は発生しません。SageMaker […]

Read More

Amazon SageMaker での AutoGluon-Tabular の活用 BYOC 編

表データに対する分類、回帰というタスクは機械学習のタスクの中でもビジネスに最も親密に結びついています。もし、以前にこのようなタスクに取り組まれていたなら、表データに対する推論の利用用途が多岐にわたることをご存知でしょう。ビジネスにおいて、ユーザーの購買活動、保険請求金額、医療レポート、IoT からのセンサーデータなど多種多様なソースから収集したデータに基づいて、機械学習モデルを構築することが重要となります。しかしながら、そのような多様性のあるデータを扱うことは容易ではありません。 このような問題に対し、これまでは専門家による懇切丁寧な特徴量エンジニアリングを通したアプローチがとられていました。しかしながら、近年、機械学習コンペティションでは複数のモデルのアンサンブルによるアプローチが主流となりつつあります。コンセプトとなっているのは複数のモデルを組み合わせてさらに良いモデルを作ることです。これは集合知と呼ばれており、それぞれのモデルがより多様で独立しているときに効果を発揮します。 AutoGluon-Tabular ではこのアイデアを取り入れています。多層スタックアンサンブルという手法も用いることにより AutoGluon-Tabular は AutoML のフレームワークとして様々なタスクに対して優れた精度を記録しています。また、AutoGluon-Tabular はシンプル、堅牢、高効率、高精度、フォールトトレラントを考慮しデザインされており、複雑な処理なしに高精度のモデルが作成可能です。 この AutoGluon-Tabular は Amazon SageMaker の独自コンテナ および AWS Marketplace を活用頂くことで簡単にお使い頂けます。これにより、たった数行のコードで高精度な機械学習モデルを作成することが可能となります。また、フルマネージドサービスである Amazon SageMakerを 利用することで、ラベリングタスクとの統合、セキュアでスケーラブルなモデルの作成、スポットインスタンスを利用したコスト削減が可能となります。 この投稿では、Amazon SageMaker での独自コンテナを活用する、BYOC( Bring Your Own Container ) という方法で AutoGluon-Tabular の活用 し、高精度な学習モデルを作成、デプロイし、すぐさまお客様のビジネスに利用する方法をご紹介します。また、次回の記事では、AWS Marketplace にあるソフトウェアを用いることで、コードを記述することなく活用頂く方法についてもご案内しています。 Amazon SageMaker での独自コンテナを用いた AutoGluon-Tabular の活用 本セクションでは、Amazon SageMaker ノートブックインスタンスを用いて、AutoGluon-Tabular モデルを学習し、推論を行う方法について順を追ってご説明致します。サンプルコードの詳細については、GitHub のリポジトリを参照下さい。 ステップ1: SageMaker ノートブックインスタンスの作成 このチュートリアルの最初のステップは、SageMaker ノートブックインスタンスを作成することです。今回は、コストの低い ml.t2.medium インスタンスを選びます。作成の際には、AmazonSageMakerFullAccess ポリシーを含む […]

Read More

Amazon AppStream 2.0 でアプリケーション設定の永続性を最適化

デスクトップとアプリケーションのブログチームは最近、Amazon FSx for Windows ファイルサーバーと FSLogix を使用して Amazon AppStream 2.0 でアプリケーション設定の永続性を最適化する方法を公開しました。AWS におけるフルマネージドのアプリケーションストリーミングおよびファイルストレージソリューションは、既存のアプリケーションやワークフローを変更することなく、インフラストラクチャを簡素化し、市場投入までの時間を短縮するのに役立ちます。 Amazon AppStream 2.0 は、ユーザーがどこからでもデスクトップアプリケーションにすぐにアクセスできるようにするフルマネージドのアプリケーションストリーミングサービスです。お客様が、個人のアプリケーション設定をセッション間で保持することが必要な場合が多くあります。 このブログ投稿では、Amazon FSx for Windows ファイルサーバーを AppStream 2.0 ユーザー向けの高性能ファイルストレージソリューションとして設定する方法について説明します。このストレージソリューションを使用すると、ユーザーはアプリケーション設定とカスタマイズをセッション間で保持できます。このブログ投稿では、次の手順について説明します。 このユースケースに適したデプロイオプションを使用して、Amazon FSx for Windows ファイルサーバーのファイルシステムを作成します。 FSLogix を AppStream イメージにインストールします。 FSLogix の動作を一元的に設定できる GPO を作成します。 AppStream 2.0 フリートにログインし、FSLogix が適切に設定されていることを確認します。 詳細については、ブログをお読みください。

Read More

Kubernetes 上にある機械学習ワークロードでのハイパフォーマンスストレージの使用

コンテナやマイクロサービスベースのアーキテクチャを導入してのアプリケーションの最新化が、現在、各組織で行われています。多くのお客様は、マイクロサービスアーキテクチャを機能させるために、パフォーマンスの高いワークロードをコンテナ内でデプロして、これらのコンテナーから低レイテンシで高スループットの共有ストレージにアクセスする必要があります。これは、コンテナは一時的なもので、長期にわたりアプリケーションを実行するには、データを耐久性のあるストレージに保存する必要があるからです。Amazon FSx for Lustre (FSx for Lustre) は、世界中で最も使用されているハイパフォーマンスファイルシステムを提供し、現在は完全マネージド型で Amazon S3 と統合されています。このサービスでは、Kubernetes ワークロード用にパフォーマンスのピークを確保ながら高い耐久性のあるストレージを実現する、POSIX 互換の高速並列ファイルシステムをご利用いただけます。FSx for Lustre では、Lustre ファイルシステムの設定や管理に関する従来の複雑さを取り除くことで、パフォーマンスの高いファイルシステムを数分で使用開始できるようになりました。FSx for Lustre のレイテンシーはミリ秒単位以下であり、スループットは最大数百 GB/秒、IOPS は数百万を実現しています。機械学習やハイパフォーマンスコンピューティング (HPC)、画像処理、そして金融モデリングなど、速度が重要視されるワークロードを実行するお客様が、この FSx for Lustre を使用されています。 Kubernetes は、コンテナ化されたアプリケーションのデプロイ、スケーリング、および管理を自動化するための、オープンソースなコンテナ用オーケストレーションシステムです。AWS のマネージド型サービスである Amazon Elastic Kubernetes Service (Amazon EKS) を使用することで、Kubernetes のコントロールプレーンやワーカーノードを独自にインストールしたり、操作する必要がなくなり、容易に Kubernetes を実行できるようになります。Amazon EKS では、複数のアベイラビリティゾーン間で Kubernetes のコントロールプレーンインスタンスを実行することで、高可用性を実現しています。障害のあるコントロールプレーンインスタンスは、Amazon EKS により自動的に検出および置き換えが行われ、またそれらに対する、バージョンのアップグレードやパッチ修正も自動で実施されます。 今回の記事では、GitHub のチュートリアルとして、Amazon EKS クラスターでの FSx for Lustre 永続的ファイルシステムのプロビジョニング方法と、FSx for […]

Read More

Porting Assistant for .NET を発表

.NET Core は .NET の未来です! .NET Framework のバージョン 4.8 はリリースされる最後のメジャーバージョンであり、今後リリースされるのは、バグ、信頼性、およびセキュリティ関連の修正のみであると Microsoft は述べています。.NET プラットフォームへの将来の投資と革新による恩恵を引き続き受けたいアプリケーションについては、アプリケーションを .NET Core に移植することを検討する必要があります。また、Linux とオープンソースの革新から得られるメリット、アプリケーションのスケーリングとパフォーマンスの向上、ライセンス費用の削減など、アプリケーションを .NET Core に移植することを検討する理由は他にもあります。しかしながら、移植にはかなりの人による作業を必要とすることがあり、その中には、プロジェクトの依存関係への参照を更新するなどの付加価値を生まない作業も含まれています。 .NET Framework アプリケーションを移植する場合、デベロッパーは、互換性のある NuGet パッケージを検索し、アプリケーションのプロジェクトファイルでそれらのパッケージ参照を更新する必要があります。これらのパッケージ参照は、.NET Core プロジェクトファイル形式にも更新する必要があります。さらに、.NET Core には .NET Framework で使用可能な API のサブセットが含まれているため、代替の API を見つける必要があります。移植が進むにつれて、デベロッパーは、コンパイルエラーと警告の長いリストを調べて、タスクを一つひとつ処理する上で、対応するのが最適であると思われる領域や、最優先で対応すべき領域を特定する必要があります。言うまでもなく、この作業は大変なもので、手間が増えることにより、アプリケーションのポートフォリオが大きいお客様の活動を妨げることがあります。 本日、当社は、Porting Assistant for .NET を発表しました。これは、お客様が .NET Framework アプリケーションを分析して Linux で実行されている .NET Core に移植するのに役立つ新しいツールです。Porting Assistant for .NET は、アプリケーションのソースコードとパブリック API と […]

Read More

Cisco は、ハイブリッド機械学習ワークフローを作成するために Amazon SageMaker と Kubeflow を使用

この記事は、Cisco の AI/ML ベストプラクティスチームのメンバーによるゲスト投稿です。そのメンバーには、テクニカルプロダクトマネージャーの Elvira Dzhuraeva 氏、上級エンジニアの Debo Dutta 氏、プリンシパルエンジニアの Amit Saha 氏が含まれます。 Cisco は、多くのビジネスユニットに機械学習 (ML) と人工知能 (AI) を適用する大企業です。CTO オフィスにある Cisco AI チームは、AI と ML を使用するビジネスユニット全体の会社のオープンソース (OSS) AI/ML ベストプラクティスを担当しています。また、Kubeflow オープンソースプロジェクトと MLPerf/MLCommons の主要な貢献者でもあります。チームの使命は、Cisco のビジネスユニットとお客様の両方が使用できるアーティファクトとベストプラクティスを ML で作成することです。このソリューションはリファレンスアーキテクチャとして共有しています。 ローカライズされたデータ要件などのビジネスニーズに応えて、Cisco はハイブリッドクラウド環境を運用しています。モデルトレーニングは独自の Cisco UCS ハードウェアで行われますが、多くのチームはクラウドを活用して推論を行い、スケーラビリティ、地理的冗長性、復元力を活かしています。けれども、ハイブリッド統合では一貫した AI/ML ワークフローを構築してサポートするために深い専門知識と理解が必要になることが多いため、このような実装はお客様にとって困難な場合があります。 これに対処するために、Amazon SageMaker を使ってクラウド内のモデルにサービスを提供するハイブリッドクラウドを実装するために、Cisco Kubeflow スターターパックを使用する ML パイプラインを構築しました。このリファレンスアーキテクチャを提供することで、お客様が複雑なインフラストラクチャ全体でシームレスで一貫性のある ML ワークロードを構築して、直面する可能性のあるあらゆる制限を満たすことを支援することを目指しています。 Kubeflow は、Kubernetes 上の ML […]

Read More

Amazon DocumentDB (MongoDB 互換) を使用してコストを最適化する

Amazon DocumentDB (MongoDB 互換) は、MongoDB のワークロードをサポートする、高速かつスケーラブルで可用性に優れた完全マネージドのドキュメントデータベースサービスです。お客様は、基盤となるインフラストラクチャの管理を気にすることなく、現在の MongoDB 3.6 用のプリケーションコード、ドライバー、ツールをそのまま使用して、Amazon DocumentDB 上でのワークロードの実行、管理、そしてスケーリングが行えます。ドキュメントデータベースである Amazon DocumentDB は、JSON データの保存、クエリ、およびインデックスを容易にします。 AWS は、可用性、信頼性、耐久性、スケーラビリティ、バックアップなどに関するお客様の課題を独自の方法を用いて解決するために Amazon DocumentDB を構築しました。その過程において、当社は、付加価値を生まない手間のかかる作業を取り除き、コストを削減するために、いくつかの斬新でユニークな機能を構築しました。この記事では、コストの見積もり、最適化、モニタリングを可能にする Amazon DocumentDB 機能を紹介します。 T3 ミディアムインスタンス T3 ミディアムインスタンス (4 GiB RAM、2 vCPU) のリリースにより、r5.large インスタンス (16 GiB RAM、2 vCPU) 以前のエントリポイントより 72% 安い低コストのインスタンスタイプ (1 時間あたり 0.078 USD) が得られます (料金はリージョンごとに異なります。Amazon DocumentDB の料金をご覧ください)。 T3 インスタンスは、開始、開発とテスト、および小規模の本番ワークロードに最適です。T3 ミディアムインスタンスで新しいクラスターをプロビジョニングするか、既存のクラスターのインスタンスを T3 ミディアムインスタンスにスケーリングできます。詳細については、Amazon DocumentDB インスタンスの変更を参照してください。 […]

Read More

Amazon RDS Proxy を使用したアプリケーションの可用性の向上

Amazon RDS Proxy の利点の 1 つは、データベースのフェイルオーバー後のアプリケーションにかかる復旧時間を改善できることです。RDS Proxy は MySQL と PostgreSQL エンジンの両方をサポートしていますが、この記事では、MySQL テストワークロードを使用して、RDS Proxy がフェイルオーバー後のクライアントリカバリ時間を Amazon Aurora MySQL で最大 79%、Amazon RDS for MySQL で最大 32% 削減する方法を示します。この記事では、RDS Proxy がクライアントをリーダー/ライターの移行問題から隔離し、次善のクライアント設定を克服する方法についても説明しています。アクティブ接続監視による計画的フェイルオーバーと計画外フェイルオーバー、およびフェイルオーバーを通じてアイドル接続を維持することによるクライアント接続プールの RDS Proxy の利点について説明します。最後に、この記事では、おすすめのクライアント構成をいくつか紹介します。 背景 RDS Proxy は、Amazon RDS for MySQL/PostgreSQL および Aurora MySQL/PostgreSQL データベースに向かって進むことができます。これにより、データベースへのアプリケーションへのアクセスを管理でき、接続プーリング、多重化、適切なフェイルオーバーを提供します。データベース接続の制限を超えてスケーリングし、接続のバーストとアプリケーションからのリクエストを管理できます。この記事では、RDS Proxy フェイルオーバーのメリットに焦点を当てています。 フェイルオーバーは、プライマリデータベースインスタンスにアクセスできなくなり、別のインスタンスが新しいプライマリとして引き継がれるときに発生します。これにより、クライアント接続が中断されます。ローリングアップグレードなどの管理アクションによって引き起こされた場合は計画的フェイルオーバー、障害が原因で発生した場合は計画外フェイルオーバーになります。どちらの場合も、クライアントの中断を最小限に抑えるためにダウンタイムを取り除くする必要があります。 Amazon RDS には複数の高可用性オプションがあり、RDS Proxy は各オプションにフェイルオーバー復旧の利点を提供します。Amazon RDS マルチ AZ オプションは、同期レプリケーションを備えたプライマリ構成およびスタンバイ構成です。Aurora は、最大 […]

Read More

AWS Machine Learning Research Awards 2019 年第 4 四半期のウィナー

AWS Machine Learning Research Awards (MLRA) は、機械学習 (ML) の進化を目指し、革新的な研究やオープンソースプロジェクトへの資金提供、学生へのトレーニング、研究者への最新技術の提供を行っています。2017 年以来 MLRA では、13 か国に広がる 73 の学校および研究機関における、180 を超える研究プロジェクトをサポートしてきました。そのトピックは、ML アルゴリズム、コンピュータビジョン、自然言語処理、医学研究、ニューロサイエンス、社会科学、物理学、ロボット工学に及びます。 2020 年 2 月 18 日に、MLRA 2019 年第 2、3 四半期提案募集サイクルのウィナーを発表しました。本日は、MLRA 2019 年第 4 四半期提案募集サイクルのウィナー 28 名を発表します。今回の MLRA ウィナーは、6 か国、26 機関の代表者たちです。ML コミュニティに広く寄与するオープンツールソースや研究の開発、または AWS ML ソリューション (Amazon SageMaker、AWS AI サービス、Apache MXNet on AWS など) を使ったインパクトのある研究の開発を目指したプロジェクトが資金を獲得しました。それでは、2019 年第 4 四半期のウィナーをご紹介します。 ウィナー 機関 […]

Read More