Amazon Web Services ブログ

[AWS Black Belt Online Seminar] Container Service Update 資料及び QA 公開

先日 (2020/6/24) 開催しました AWS Black Belt Online Seminar「Container Service Update」の資料を公開しました。当日、参加者の皆様から頂いた QA の一部についても共有しております。 20200624 AWS Black Belt Online Seminar Container Services Update from Amazon Web Services Japan AWS クラウドサービス活用資料集(すべての過去資料が閲覧できます) Q. 6月上旬に「今後数か月で、AWS Fargate は LATEST フラグをプラットフォームバージョン (PV) 1.4.0 に更新する予定です。」という通知がされていますが、「今後数か月」はどの程度の期間と考えればよいでしょうか?1.4.0 の移行のどちらを優先するかを決めたい考えております。 A. 現在アナウンスさせて頂いている時期は、2020-3Q、2020 年 7 月 – 9 月となっております。下記 Blog でもご案内しておりますが、正式な発表をお待ちください。 日本語訳:https://aws.amazon.com/jp/blogs/news/aws-fargate-platform-versions-primer/ 原文:https://aws.amazon.com/blogs/containers/aws-fargate-platform-versions-primer/ Q. Docker Engine を使っていたら、platform を […]

Read More

[AWS Black Belt Online Seminar] Amazon Cognito 資料及び QA 公開

先日 (2020/06/30) 開催しました AWS Black Belt Online Seminar「Amazon Cognito」の資料を公開しました。当日、参加者の皆様から頂いた QA の一部についても共有しております。 20200630 AWS Black Belt Online Seminar Amazon Cognito from Amazon Web Services Japan AWS クラウドサービス活用資料集(すべての過去資料が閲覧できます) Q. ユーザープール、Cognito ID プールはどこに保存されるのでしょうか?例えば貴社でご用意する Cognito 用インスタンスのローカル等に保存されるイメージでしょうか? A. お客様が指定された AWS リージョン内の Amazon Cognito 環境内に保存されます。 Q. ユーザープールに登録した情報(usename、password、email, tel)のバックアップとリストアは、どのように行えばよいですか? A. Cognito ユーザプールはバックアップやリストアの機能は提供していませんが、ユーザプールに登録された情報は、安全に保存されています。そのため、単一リージョン内での耐久性では不十分な場合や操作ミスからの復旧が、バックアップやリストアの目的になるかと思われます。 前者への対応としては、定期的に全ユーザの属性を読み取って S3 や DB 等に保存しておく、あるいはユーザの新規・変更時に都度 DB にも記録する、ログイン時に発行される ID トークンの内容を都度 DB […]

Read More

AWS 認定の取得状況をシェアしよう

AWS 認定のデジタルバッジをより簡単にシェアして、所属している組織の雇用主や同僚に自分の AWS クラウドに対するスキルをアピールしやすくなったことをご存じですか。業界で広く認知されている資格である AWS 認定を取得すると、自分のクラウドレベルの高さを顕示して、スキルに対する信頼と信用を得るのに役立ちます。AWS 認定のデジタルバッジは、AWS 認定を取得していることを周りに知らしめることができます。 現在デジタルバッジは Credly の Acclaim プラットフォームを介して提供されており、柔軟な複数のオプションにより取得した認定資格を掲示および証明できます。ソーシャルメディアのニュースフィードに対してワンクリックでバッジをシェアしたり、ウェブサイト上で検証可能なバッジ組み込みツールを使ったり、取得したすべての AWS 認定のバッジをプロフィール上で公開できるオプションを活用したりできます。 私が最初に取得したAWS 認定は「AWS 認定ソリューションアーキテクト – アソシエイト」でした。取得したのは 2013 年、AWS でソリューションアーキテクトとして働いていた時です。その後 2014 年に「AWS 認定ソリューションアーキテクト – プロフェッショナル」認定を取得し、2017 年にかけて AWS 認定プログラムをリードする立場となり、当時最新の認定であった 「AWS 認定クラウドプラクティショナー」の認定を取得しました。 このAWS 認定クラウドプラクティショナーはクラウドの基礎知識を証明するもので、今では AWS クラウドで成功をおさめる方法を学ぶクラウドビルダーやプロフェッショナルにとっての登竜門となるケースもよく見られます。 こうした私自身の AWS 認定ストーリーをここで皆さんに示したのは、いま述べたような認定取得の時期や状況を、第三者が簡単に確認できるということを説明するためです。Credly の Acclaim プラットフォームで 私のプロフィール を開いてみてください。今言ったことがわかると思います。AWS 認定を受けたすべての方に、LinkedIn のプロフィール、 E メールの署名、デジタル履歴書など、あらゆるところでご自身が取得した認定バッジをシェアすることをお勧めします。   AWS 認定の取得状況をシェアする理由 第一に、みんなでそれを祝うことができます。クラウドの初心者の方でも、データベースやクラウドセキュリティなどの各分野で何年もかけて技術的な専門知識を磨いてきた方でも、クラウドスキルの構築は、えてして多大な労力を伴う体験です。バッジそのものはもちろん認定を取得したという嬉しいニュースを、サポートしてくれた友人や同僚とシェアしましょう。 第二に、ご自身が獲得したクラウドスキルの信頼性を確立できます。AWS 認定を取得すると、特定のロールや技術的なトピックにおいて […]

Read More

AWS Copilot のご紹介

Amazon Elastic Container Service (Amazon ECS) をご利用中、あるいはご利用を検討されている皆さまへ 本記事でご紹介する AWS Copilot は Amazon ECS CLI の後継に当たるものです。日本はこの ECS CLI を多くのお客様にご利用いただいている地域の1つであることに加え、ECS でのコンテナ実行をもっと簡単に行えるようにしたい、シンプルなワークフローを実現したいというリクエストを多数いただいていることから、本記事を英語記事と同じタイミングで公開することにしました。 Amazon ECS でのコンテナ実行に新たな体験を提供する AWS Copilot の紹介記事です。お楽しみください! −トリ (皆さまからの Copilot へのフィードバック、心よりお待ちしております) 本記事は Nathan Peck による “Introducing AWS Copilot” を翻訳+加筆修正したものです Amazon ECS 向けの最初の公式コマンドラインツールは2015年に公開されました。2019年12月には、新たな体験を備えたコマンドラインツールのプレビューリリースを皆さまに紹介しました。お客様がこれまで以上に簡単にアプリケーションを Amazon ECS にデプロイできるよう、ゼロベースでデザインしたものです。そして本日、私たちはこの新たなコマンドラインツールの最新情報と、その新たな名前 – AWS Copilot – を紹介します。 AWS Copilot は、低レイヤなインフラの手動管理から脱却し、自身のアプリケーションとそのライフサイクルにフォーカスしたい ECS ユーザのためにデザインされました。Copilot は、ECS チームのエンジニアや […]

Read More

オンライン「AWS 金融Webinar シリーズ」開催!

社会環境は激変しましたが、これもニューノーマルとして定着し、金融機関の皆様におかれても、さらなるIT活用・デジタル化の重要度が一気に高まっております。 AWSでは、そのような環境への対応をご支援すべく、ITインフラに関する短期即効性のある取組、及び中長期のビジネスモデル変革への取組にお役立ていただけるよう、金融機関及び関連業界の皆様に向けたオンラインWebinarシリーズを実施させて頂くこととしました。 各Webinarの概要を以下にご案内いたします。 職場やご自宅など、どこからでもお気軽にご参加いただくことができるオンライン セミナーにぜひご参加ください! ① すぐにできる! 金融ITの運用・コストの課題解決とセキュリティ強化  (7月13日(木)16:00~17:20) このセッションでは、すぐに採用・有効化できる即効性の高い金融ITソリューションとして、以下の2つのトピックをご紹介します。  1つ目は、現行オンプレミスの課題であるとのお声を頂く機会が多いファイルサーバについて、その課題とクラウド上への移行を速やかに実現する手段として、リリース後、様々な機能強化がなされている「Amazon FSx for Windows File Server」の概要と導入ステップをご説明いたします。 2つ目として、金融機関でAWSを利用いただく上では、欠かすことのできないセキュリティサービスの活用方法をご紹介します。 AWSに係わる操作や設定変更の記録サービスや、脅威検出を行うサービスのご紹介を通じて、AWS上に構築されたシステムに関する事象を把握し、ビジネス上のインパクトが発生する前に問題を特定し、リスクを低減する方法を取り上げます。先ごろ6月30日には、金融庁からもIT・サイバーセキュリティの取組に関するレポートもリリースされました。そちらも踏まえてご検討頂ければと考えております。 ② 金融顧客サービス・業務効率化における AI/機械学習の活用 (7月30日(木)16:00~17:20)  今後、金融ビジネスでは、対面での顧客応対や店舗の削減に向け、顧客対応及び業務処理について、効率化と品質維持・向上の両立がますます高いレベルで求められます。 本セッションでは、金融業界のビジネスリーダーおよびマネジメント層の皆様に対し、そのような状況も踏まえて、AI/機械学習(以下「AI/ML」)をビジネス、特に顧客対応や業務効率化に向けて活用する必要性と、実際に活用する際の課題解決の方法を紹介します。AI/ML導入を進める上では、技術的な難しさに着目しがちですが、技術的な課題の解決だけでは、実ビジネスに貢献するプロジェクトの実現は困難です。本セッションでは、効果的にAI/MLをビジネスで活用するために必要な意識付けについて説明します。また、金融業界におけるAI/ML活用事例の解説とともに、AWSが提供するAI/ML活用支援プログラムについてもご紹介します。 ③ 変化する規制・制度への RegTech 活用  (8月6日(木)16:00~17:20)  金融機関はバーゼルをはじめとする規制変更、FATFをはじめとするガバナンスの整備強化、時価開示会計基準の変更といった制度変更への対応が求められています。またさらに、金融検査マニュアルの廃止に伴う、自主管理のフレームワークづくりを継続的に行う必要に迫られています。このような環境の中では経営効率化の観点から、柔軟で低コストの対応が行なえるRegtechが注目されています。本セッションでは今後も変化を続ける規制・制度変更への対応を、コストを抑えかつ迅速に対応を進めていくための、AWS サービスの活用ポイントを解説します。また規制・制度の変化に柔軟に対応している先進的な金融機関の事例をご紹介します。さらに金融機関のリスク管理では多くのコンピュータリソースを必要とし、多額の投資を必要とするシミュレーション計算が求められています。この課題に対し AWS の HPC 技術を適用することでコストの最適化を図る方法についても、ご紹介いたします。 ④ オルタナティブデータ活用による新たな Insight の発掘 (8月13日(木)16:00~17:20)  金融業界においてもオルタナティブデータ活用による投資機会の発見や、審査モデルの高度化といった新サービス創出の流れが起きています。また、自社内に蓄積されたデータを分析することで新たな価値を見出し、新たなデータビジネスを創出する動きもあります。このセッションでは海外の先進金融機関におけるオルタナティブデータの活用事例をご紹介するとともに、AWS Data Exchange 利用による新たなデータビジネス創出についてご紹介します。併せて、金融機関がオルタナティブデータを含めたビッグデータを収集・分析し活用していくために、データレイクを構築し環境を整備していくためのポイントについて解説します。また後半では、オルタナティブデータ活用の海外の事例だけではなく、国内の新しいデータビジネスへの取り組み事例についてもご紹介いたします。 金融Webinar シリーズ お申込みはこちら  https://pages.awscloud.com/JAPAN_FSI_WEBINAR.html

Read More

Amazon SageMaker での AutoGluon-Tabular の活用 AWS Marketplace 編

前回の記事では、Amazon SageMaker で独自コンテナを用いて AutoGluon-Tabular を活用し、数行で高精度な機械学習モデルが構築できることをご紹介致しました。今回は、AWS Marketplace に出品されている AutoGluon-Tabular のソフトウェアを活用し、コードを記述することなく、機械学習モデルを構築する方法をご案内します。 AWS Marketplace は、ソフトウェア、データ、およびサービスを簡単に検索、購入、デプロイ、管理するために使用できる厳選されたデジタルカタログであり、セキュリティ、ネットワーク、ストレージ、データベース、といった様々なカテゴリに属する何千というソフトウェアが出品されています。今回は新しく、AutoGluon-Tabular が出品されたので、こちらを使用して機械学習モデルを構築してみます。 Step1: CSVファイルを用意します AutoGluon-Tabular ではテーブルデータを対象としています。学習データやテストデータは、pandas などの標準的なライブラリを使用して Python で読み込める有効な CSV ファイルとして格納されていれば良く、手動で前処理を行う必要はありません。各カラム名に該当するヘッダーは付けてください。後のステップで予測対象の目的変数のカラム名を指定します。 今回は、元のデータを7:3の比率で学習データとテストデータにランダムに分割し2つのファイルを作成しました。 Step2: CSVファイルをS3にアップロードします Step1 の CSV ファイルを Amazon S3 にアップロードしましょう。 Step3: SageMakerのコンソールでトレーニングジョブを実行します まず、SageMaker のコンソールの左ペインにある「アルゴリズム」(下記1)のセクションをクリックし、表示された右上の「アルゴリズムを探す」ボタン(下記2)をクリックしてください。 飛んだ先のマーケットプレイスのページの検索ボックスで autogluon を検索して、表示された「 AutoGluon-Tabular 」をクリックしてください。 飛んだ先のマーケットプレイスの AutoGluon-Tabular のページで「 Continue to Subscribe 」ボタンをクリックしてください。 料金やライセンスに関する説明が表示されますので、確認して「 Accept Offer 」ボタンをクリックしてください。AutoGluon-Tabular は OSS  であり、アルゴリズムの使用自体には料金は発生しません。SageMaker […]

Read More

Amazon SageMaker での AutoGluon-Tabular の活用 BYOC 編

表データに対する分類、回帰というタスクは機械学習のタスクの中でもビジネスに最も親密に結びついています。もし、以前にこのようなタスクに取り組まれていたなら、表データに対する推論の利用用途が多岐にわたることをご存知でしょう。ビジネスにおいて、ユーザーの購買活動、保険請求金額、医療レポート、IoT からのセンサーデータなど多種多様なソースから収集したデータに基づいて、機械学習モデルを構築することが重要となります。しかしながら、そのような多様性のあるデータを扱うことは容易ではありません。 このような問題に対し、これまでは専門家による懇切丁寧な特徴量エンジニアリングを通したアプローチがとられていました。しかしながら、近年、機械学習コンペティションでは複数のモデルのアンサンブルによるアプローチが主流となりつつあります。コンセプトとなっているのは複数のモデルを組み合わせてさらに良いモデルを作ることです。これは集合知と呼ばれており、それぞれのモデルがより多様で独立しているときに効果を発揮します。 AutoGluon-Tabular ではこのアイデアを取り入れています。多層スタックアンサンブルという手法も用いることにより AutoGluon-Tabular は AutoML のフレームワークとして様々なタスクに対して優れた精度を記録しています。また、AutoGluon-Tabular はシンプル、堅牢、高効率、高精度、フォールトトレラントを考慮しデザインされており、複雑な処理なしに高精度のモデルが作成可能です。 この AutoGluon-Tabular は Amazon SageMaker の独自コンテナ および AWS Marketplace を活用頂くことで簡単にお使い頂けます。これにより、たった数行のコードで高精度な機械学習モデルを作成することが可能となります。また、フルマネージドサービスである Amazon SageMakerを 利用することで、ラベリングタスクとの統合、セキュアでスケーラブルなモデルの作成、スポットインスタンスを利用したコスト削減が可能となります。 この投稿では、Amazon SageMaker での独自コンテナを活用する、BYOC( Bring Your Own Container ) という方法で AutoGluon-Tabular の活用 し、高精度な学習モデルを作成、デプロイし、すぐさまお客様のビジネスに利用する方法をご紹介します。また、次回の記事では、AWS Marketplace にあるソフトウェアを用いることで、コードを記述することなく活用頂く方法についてもご案内しています。 Amazon SageMaker での独自コンテナを用いた AutoGluon-Tabular の活用 本セクションでは、Amazon SageMaker ノートブックインスタンスを用いて、AutoGluon-Tabular モデルを学習し、推論を行う方法について順を追ってご説明致します。サンプルコードの詳細については、GitHub のリポジトリを参照下さい。 ステップ1: SageMaker ノートブックインスタンスの作成 このチュートリアルの最初のステップは、SageMaker ノートブックインスタンスを作成することです。今回は、コストの低い ml.t2.medium インスタンスを選びます。作成の際には、AmazonSageMakerFullAccess ポリシーを含む […]

Read More

Amazon AppStream 2.0 でアプリケーション設定の永続性を最適化

デスクトップとアプリケーションのブログチームは最近、Amazon FSx for Windows ファイルサーバーと FSLogix を使用して Amazon AppStream 2.0 でアプリケーション設定の永続性を最適化する方法を公開しました。AWS におけるフルマネージドのアプリケーションストリーミングおよびファイルストレージソリューションは、既存のアプリケーションやワークフローを変更することなく、インフラストラクチャを簡素化し、市場投入までの時間を短縮するのに役立ちます。 Amazon AppStream 2.0 は、ユーザーがどこからでもデスクトップアプリケーションにすぐにアクセスできるようにするフルマネージドのアプリケーションストリーミングサービスです。お客様が、個人のアプリケーション設定をセッション間で保持することが必要な場合が多くあります。 このブログ投稿では、Amazon FSx for Windows ファイルサーバーを AppStream 2.0 ユーザー向けの高性能ファイルストレージソリューションとして設定する方法について説明します。このストレージソリューションを使用すると、ユーザーはアプリケーション設定とカスタマイズをセッション間で保持できます。このブログ投稿では、次の手順について説明します。 このユースケースに適したデプロイオプションを使用して、Amazon FSx for Windows ファイルサーバーのファイルシステムを作成します。 FSLogix を AppStream イメージにインストールします。 FSLogix の動作を一元的に設定できる GPO を作成します。 AppStream 2.0 フリートにログインし、FSLogix が適切に設定されていることを確認します。 詳細については、ブログをお読みください。

Read More

Kubernetes 上にある機械学習ワークロードでのハイパフォーマンスストレージの使用

コンテナやマイクロサービスベースのアーキテクチャを導入してのアプリケーションの最新化が、現在、各組織で行われています。多くのお客様は、マイクロサービスアーキテクチャを機能させるために、パフォーマンスの高いワークロードをコンテナ内でデプロして、これらのコンテナーから低レイテンシで高スループットの共有ストレージにアクセスする必要があります。これは、コンテナは一時的なもので、長期にわたりアプリケーションを実行するには、データを耐久性のあるストレージに保存する必要があるからです。Amazon FSx for Lustre (FSx for Lustre) は、世界中で最も使用されているハイパフォーマンスファイルシステムを提供し、現在は完全マネージド型で Amazon S3 と統合されています。このサービスでは、Kubernetes ワークロード用にパフォーマンスのピークを確保ながら高い耐久性のあるストレージを実現する、POSIX 互換の高速並列ファイルシステムをご利用いただけます。FSx for Lustre では、Lustre ファイルシステムの設定や管理に関する従来の複雑さを取り除くことで、パフォーマンスの高いファイルシステムを数分で使用開始できるようになりました。FSx for Lustre のレイテンシーはミリ秒単位以下であり、スループットは最大数百 GB/秒、IOPS は数百万を実現しています。機械学習やハイパフォーマンスコンピューティング (HPC)、画像処理、そして金融モデリングなど、速度が重要視されるワークロードを実行するお客様が、この FSx for Lustre を使用されています。 Kubernetes は、コンテナ化されたアプリケーションのデプロイ、スケーリング、および管理を自動化するための、オープンソースなコンテナ用オーケストレーションシステムです。AWS のマネージド型サービスである Amazon Elastic Kubernetes Service (Amazon EKS) を使用することで、Kubernetes のコントロールプレーンやワーカーノードを独自にインストールしたり、操作する必要がなくなり、容易に Kubernetes を実行できるようになります。Amazon EKS では、複数のアベイラビリティゾーン間で Kubernetes のコントロールプレーンインスタンスを実行することで、高可用性を実現しています。障害のあるコントロールプレーンインスタンスは、Amazon EKS により自動的に検出および置き換えが行われ、またそれらに対する、バージョンのアップグレードやパッチ修正も自動で実施されます。 今回の記事では、GitHub のチュートリアルとして、Amazon EKS クラスターでの FSx for Lustre 永続的ファイルシステムのプロビジョニング方法と、FSx for […]

Read More

Porting Assistant for .NET を発表

.NET Core は .NET の未来です! .NET Framework のバージョン 4.8 はリリースされる最後のメジャーバージョンであり、今後リリースされるのは、バグ、信頼性、およびセキュリティ関連の修正のみであると Microsoft は述べています。.NET プラットフォームへの将来の投資と革新による恩恵を引き続き受けたいアプリケーションについては、アプリケーションを .NET Core に移植することを検討する必要があります。また、Linux とオープンソースの革新から得られるメリット、アプリケーションのスケーリングとパフォーマンスの向上、ライセンス費用の削減など、アプリケーションを .NET Core に移植することを検討する理由は他にもあります。しかしながら、移植にはかなりの人による作業を必要とすることがあり、その中には、プロジェクトの依存関係への参照を更新するなどの付加価値を生まない作業も含まれています。 .NET Framework アプリケーションを移植する場合、デベロッパーは、互換性のある NuGet パッケージを検索し、アプリケーションのプロジェクトファイルでそれらのパッケージ参照を更新する必要があります。これらのパッケージ参照は、.NET Core プロジェクトファイル形式にも更新する必要があります。さらに、.NET Core には .NET Framework で使用可能な API のサブセットが含まれているため、代替の API を見つける必要があります。移植が進むにつれて、デベロッパーは、コンパイルエラーと警告の長いリストを調べて、タスクを一つひとつ処理する上で、対応するのが最適であると思われる領域や、最優先で対応すべき領域を特定する必要があります。言うまでもなく、この作業は大変なもので、手間が増えることにより、アプリケーションのポートフォリオが大きいお客様の活動を妨げることがあります。 本日、当社は、Porting Assistant for .NET を発表しました。これは、お客様が .NET Framework アプリケーションを分析して Linux で実行されている .NET Core に移植するのに役立つ新しいツールです。Porting Assistant for .NET は、アプリケーションのソースコードとパブリック API と […]

Read More