Amazon Web Services ブログ

Category: News

Microsoft Windows Server と SQL Server 向けの新しくシンプルになった独自のライセンスエクスペリエンス

お客様は、Microsoft Windows Server および SQL Server の既存のライセンスを AWS に持ち込み、管理するための簡単な方法を提供するように求めています。本日、新しい、よりシンプルな、Bring-Your-Own-License (BYOL) エクスペリエンスを発表できることを嬉しく思います。 Windows Server または SQL Server インスタンスを起動するとき、お客様は従量課金モデルで AWS のライセンスを使用するか、既存の独自のライセンスを持ち込むことができます。AWS から取得したソフトウェアライセンスを使用する場合、お客様は複雑なライセンス契約条件を管理する必要のない、完全準拠の従量課金ライセンスモデルを取得します。本日発表された新しい BYOL エクスペリエンスにより、既存の Windows Server または SQL Server ライセンスを使用したいお客様は、EC2 で仮想マシンをシームレスに作成できます。その一方で、AWS はライセンスを管理し、お客様が指定したライセンスルールに確実に準拠するのをサポートします。 以前は、独自のサーバーごとのライセンスを持参する場合、キャパシティーを管理し、BYOL に必要な専用ホストを効果的に使用するために、追加の自動化を記述する必要がありました。このプロセスにより、ホストの管理があたかも EC2ではないようになり、AWS が提供するライセンスを使用する際の、シンプルで使いやすいエクスペリエンスとはまったく異なっていました。新しい BYOL エクスペリエンスは、ホストの割り当てやリリースなどの主要なホスト管理タスクを自動化し、ホストキャパシティーを管理し、ホストの Auto Scaling や自動リカバリなどの機能を有効にすることで、お客様のホスト管理エクスペリエンスをシンプルにします。その結果、他の EC2 インスタンスを作成するのと同じ方法で、専用ホスト上に BYOL インスタンスを簡単に作成できます。 ライセンスされたイメージを AWS クラウドに持ち込むための、新しくシンプルになったエクスペリエンスを見ていきましょう。この記事では、Windows Server ライセンスを使用しますが、Windows Server と SQL Server のライセンスを持ち込む場合も同じです。 ライセンス管理のセットアップ ライセンス画像をインポートして、Amazon […]

Read More

Amazon Transcribe Medical – ヘルスケア顧客向けのリアルタイム自動音声認識

2017 年、Amazon Transcribe がローンチされました。これは、開発者がアプリケーションに Speech-to-Text 機能を簡単に追加できるようにする自動音声認識サービスです。今日、Amazon Transcribe Medical で医療音声に拡張できることを非常に嬉しく思います。 私が子供の頃、両親は両方とも医師でしたが、秘書が後でタイプしてアーカイブできるように、夜はよくマイクロカセットレコーダーを使って手紙や試験報告書を記録していました。それはかなり前のことでしたが、ウィスコンシン大学とアメリカ医師会による 2017 年の調査によると、米国のプライマリケア医は 1 日 6 時間を電子医療記録 (EHR) システムの医療レポートへの入力に費やしているということです。EHR は現在、医療従事者の標準要件となています。 医師に紙のレポートに戻るべきだと主張する人は誰もいないと思います。デジタルデータを扱う方がはるかに効率的です。それでも、長時間かかるこれらの管理業務を軽減することはできるでしょうか? 浮いた時間を、患者を診たり、病院で多忙な一日を過ごした後の休憩に余分に当てたりした方がいいことに疑いはありません。 Amazon Transcribe Medical の紹介 Amazon Transcribe Medical のおかげで、医師は人間の介入なしに、臨床メモを簡単かつ迅速に口述し、音声を正確なテキストにリアルタイムで変換できるようになりました。臨床医は自然に話すことができ、「点」や「丸」といった句読点を明示的に発声する必要はありません。このテキストは、EHR システムなどのダウンストリームアプリケーション、またはエンティティ抽出のために などの AWS 言語サービスに自動的に送信できます。 完全マネージドサービスの精神で、Transcribe Medical はインフラストラクチャの作業から解放され、実際に使用した分だけ支払うだけで簡単にスケーリングできます。高価なライセンスの初期費用は発生しません! ご想像のとおり、Transcribe Medical も HIPAA に準拠しています。 技術的な観点からは、操作はデバイスのマイクを使用して音声をキャプチャし、一般的な Websocket プロトコルに基づいて PCM 音声をストリーミング API に送信することだけです。この API は、書き起こされたテキスト、および文字レベルのタイムスタンプと句読点などとともに、一連の JSON ブロブで応答します。オプションで、このデータを Amazon Simple Storage […]

Read More

サポート終了の Windows Server アプリケーションの将来を保証する新しい AWS プログラム

しばらく職務に従事していると、ビジネスに不可欠なレガシー Windows Server アプリケーションがあり、サポートされている新しいバージョンの Windows Server に移行できない状況に陥ることがあるかもしれません。お客様から、このレガシーアプリケーションを移動できない理由を数多く耳にしました。おそらく、アプリケーションが Windows Server の特定のバージョンに依存していたり、アプリケーションに関する専門知識を持っていなかったり、またインストールメディアやソースコードが失われた場合もあるかもしれません。 2020 年 1 月 14 日、Windows Server 2008 と 2008 R2 のサポートが終了します。サポートされていないバージョンの Windows Server でのみ実行できるアプリケーションを使用すると、セキュリティパッチの無料アップデートが入手できなくなり、セキュリティとコンプライアンスのリスクに対して脆弱になるため、問題があります。また、このようなアプリケーションを大幅なリファクタリングなしでクラウドに移行することも困難です。 サポートされていないバージョンの Windows Server でのみ実行されるレガシーアプリケーションがある場合、延長サポートにお金を使いたくなることもよくあります。ただし、これは単なる延命策に過ぎず、レガシーアプリケーションを将来にわたって保証する長期的なソリューションが必要だとの声がお客様から寄せられています。 当社には長期的な解決策があります これを支援するため、本日、AWS End-of-Support Migration Program (EMP) for Windows Server をローンチします。この新しいプログラムは、テクノロジーと専門家のガイダンスを組み合わせて、Windows Server の古いバージョンで実行されているレガシーアプリケーションを、AWS でサポートされている新しいバージョンに移行します。 Windows Server 2008 のサポート終了に対処することが迫られている場合、このプログラムから、判断を後日に後回しにするのではなく、長期的に問題を解決する独自のソリューションを受けられ、道筋が開けます。重要な点として、レガシーアプリケーションでコードを何も変更する必要はなく、元のインストールメディアやソースコードも必要ありません。 以下、このプログラムの技術的な部分がどのように機能するかを示します。ただし、移行を実際に行うには、AWS パートナーまたはプロフェッショナルサービスを利用する必要があることを頭に入れておいてください。[製品ページ] には、パートナーのネットワークが一覧表示されており、料金と特定の要件についてご相談いただけます。 それでは、これがどのように機能するかを見てみましょう。インストールメディアが利用できる場合にアプリケーションを移行するのにパートナーが実行するだろう手順について説明します。 Windows Server 2016 では、Microsoft SQL […]

Read More

Amazon SageMaker Processing – フルマネージドなデータ加工とモデル評価

2019年12月3日 Amazon SageMaker の新しい機能であり、データの前処理や後処理、モデルの評価といったワークロードをフルマネージドなインフラストラクチャの上で簡単に実行する機能である、Amazon SageMaker Processing を発表できることを嬉しく思います。 精度の高い機械学習(ML)モデルを学習するためには、多くの異なるステップを必要としますが、以下のようなデータの前処理より重要なものはないでしょう。 機械学習アルゴリズムが活用できる入力フォーマットへデータセットを変換 カテゴリカル特徴量のOne-Hot エンコーディングのような、既存の特徴量をさらに表現力の高い特徴量へ変換 数値型特徴量のリスケールや平準化 住所をGPSの座標に置き換えるような、高レベルな特徴量の作成 自然言語処理を適用するための文章のクリーニングやトークン化 これらのタスクは、データセットに応じて異なるスクリプトを実行することになり、そして、後で学習の際に使われるための加工済データを保存します。あなたが想像する通り、機械学習チームにとって、これらを手作業で行ったり、自動化ツールを構築してスケールさせることは魅力的なな計画とは言えません。同様のことが後処理ジョブ(フィルタリングや照合など)やモデル評価ジョブ(異なるテスト用データセットに対するスコアリング)にも言えるかも知れません。 これらの課題を解決するために、 Amazon SageMaker Proscessing が開発されました。より詳細をご紹介させて下さい。 Amazon SageMaker Processing の紹介 Amazon SageMaker Processing はデータサイエンティストと機械学習エンジニアが前処理、後処理、モデル評価といったワークロードを Amazon SageMaker 上で簡単に行うための新しい Python SDK を導入します。 この SDK はデータセットの変換のために使われるおそらく最も人気のあるライブラリである scikit-learn 向けの SageMaker の組み込みコンテナを使います。 必要に応じて、特定の Docker イメージに制限されることなく、独自の Docker イメージをお使い頂くことが出来ます。これにより、最大限の柔軟性を提供し、SageMaker Processing や Amazon ECS や Amazon Elastic Kubernetes Servicesなどの AWS […]

Read More

新機能 – AWS ECS Cluster Auto ScalingによるECSクラスターの自動スケーリング

本日、AWS ECS Cluster Auto Scalingを発表します。この機能は、スケールアウトを高速化し信頼性を向上させる、クラスター内の空きキャパシティ管理の提供と、スケールイン時に終了されるインスタンスの自動管理を提供し、クラスターの自動スケーリングをより使いやすいものにします。 ECS Cluster Auto Scalingを有効にするには、Capacity Providerと呼ばれる新たな項目を設定する必要があります。1つのCapacity Providerは1つのEC2 Auto Scaling Groupに関連づきます。あるAuto Scaling GroupにECS Capacity Providerを関連付け、ECSクラスターにCapacity Providerを追加すると、ECSの次の2つの新機能を用いてクラスターを自動スケールできるようになります。 管理されたスケーリング。Capacity Provider Reservationという新しいメトリックに対応するスケーリングポリシーが自動的に生成され、Auto Scaling Groupにアタッチされます。 管理されたインスタンス保護。スケールイン時にコンテナーからインスタンス終了を把握できるようになります。 これらの新機能により、ECSクラスターのスケールイン・スケールアウト時の制御が可能になります。 Capacity Provier Reservation Capacity Provider Reservationと呼ばれる新しいメトリックを導入します。クラスター内のすべてのECSワークロード、つまり既存のもの、新規のもの、変更になるもの、これらすべてが必要とする、クラスターリソースの割合(パーセンテージ)が計測されます。このメトリックはCPUやメモリ使用率を用いるよりも確度の高い、素早いスケールアウトを実現するために用いられ、またクラスター内の空きキャパシティを把握することもできるようになります。また、インスタンスを新規起動せず追加のコンテナーを素早く起動できるか、といった判断も可能になります。 管理されたインスタンス保護 インスタンス保護機能により、スケールインに際してどのインスタンスを削除できるかをECSに知らせることができます。これにより稼働中のコンテナーの中断を最小限に抑えられるようになります。運用コストの最適化、またECSで稼働するコンテナーワークロードの可用性向上に役立つ機能です。 ユーザーの利点 これまで、自動スケールするコンテナーワークロードを運用していたユーザーは、多くの場合、メトリックベースのスケーリングを使っていました。メトリックの例にはCPU使用率やメモリ使用率といったものがあり、この変化に基づいてクラスターインスタンスを追加、あるいは削除するべきかを判断するスケーリングポリシーを定義していました。 単一のワークロード、もしくは穏やかに負荷が上昇するワークロード群であれば、この方式でもうまくいく場合が多かったと考えます。しかし同一クラスター上で複数種類のワークロードを稼働させるケース、また急激な負荷上昇が見込まれるワークロードに対しては、スケーリングの問題が頻発していました。理想的には、その時点のクラスターサイズで収容しきれないようなワークロードの増加に対しては、クラスターサイズをスケールアウトさせるようなスケーリングポリシーが必要です。 既存のメトリクスがコンテナー全体を対象にしたものではなく、またその時点で使用中のリソースのみを表現するものである以上、スケールアウトが緩慢に、また不安定になってしまうことは避けられませんでした。加えて、クラスター内のどこでコンテナが稼働しているのかをスケーリングポリシーが把握できないため、スケールインに際して不用意にコンテナーを終了させてしまう場合もありました。この問題はコンテナーワークロードの可用性を低下させる要因になっていました。コンテナーインスタンスの追加台数の準備、追加のスクリプト開発、あるいは手動運用などでの回避は、すべて運用コストの増大を招いていたと言えます。 スケールしてみよう! この機能をよく理解するには手を動かしてみるのが一番だと思います。 Amazon ECS Cluster Auto Scalingは、マネジメントコンソール、AWS CLI, Amazon ECS APIのいずれからも操作可能です。この例ではAWS CLIを用い、ターミナルからクラスターを作成する流れを見ていきます。 まず2つのファイルを作成します。ひとつ目はdemo-launchconfig.jsonで、EC2 Auto Scaling Groupに起動するAmazon Elastic […]

Read More

AWS Fargate Spotの発表 – Fargateとスポットインスタンスの統合

本日のAWS re:Invent 2019にて、AWS Fargate Spotを発表します。Fargate SpotはAWS Fargateの新しい機能です。中断に強いAmazon Elastic Container Service (Amazon ECS)タスクに最適であり、Fargate価格から最大70%割引で提供します。 もしEC2スポットインスタンスを知っていれば、同様のコンセプトで理解できます。Fargate Spotは、AWSクラウドの空きキャパシティを活用してタスクを実行します。Fargate Spotが空きキャパシティを確保できるかぎり、ユーザーは指定したタスクを起動することができます。AWSにキャパシティが必要になったとき、Fargate Spotで稼働するタスクは2分前の通知とともに中断されることになります。Fargate Spot用のキャパシティが使用できなくなると、Fargateは稼働中の通常のタスクを保持しながら、Fargate Spotで稼働するタスクをスケールダウンします。 タスクが中断される可能性があるという特性から、中断が許容できないワークロードをFargate Spotで稼働させるべきではありません。一方で中断耐性のあるワークロードに対しては、コスト最適化に大きく貢献します。 Fargate Spotは特に画像のレンダリング、モンテカルロシミュレーション、ゲノム解析といった並列度の高いワークロードに適しています。また高可用性を求められるウェブサイトやAPIサーバーのように、ECSサービスの一部となるタスクに対してもFargate Spotを適用することができます。 クラスター定義を作成・更新する際、常時稼働させるべき最低限のタスク数を指定し、さらに性能向上を狙いとするタスクをコスト効率の良いFargate Spot上で稼働するように構成することができるようになります。サービス定義のService Auto Scalingを利用することで、Fargate Spot用のキャパシティが使用可能になり次第、リクエストを満たすようにスケジューラーがタスクを起動し、Fargate Spot用のキャパシティが使用できなくなると、前述の通り先に指定した常時稼働タスクを保持しながら、Fargate Spotで稼働するタスクがスケールダウンする、という動作を実現することもできます。 AWS Fargate Spotの開始方法を見ていきましょう。 まずECSマネジメントコンソールより、新規のECSクラスターを作成します。Fargate起動タイプを選択するため、ここでは”Networking only”を選択し、ウィザードを進めます。 クラスターが作成されたらば、”Capacity Providers”タブからキャパシティプロバイダーを追加します。デフォルトではFARGATEとFARGATE_SPOTの2種類のキャパシティプロバイダーが用意されています。 キャパシティプロバイダーとしてFARGATE_SPOTを用いるのに、まずデフォルトのプロバイダーをFARGATE_SPOTに変更します。”Update Cluster”ボタンをクリックし、次の画面で”Add provider”をクリックしてFARGATE_SPOTを追加し、Updateボタンを押します。 続いて、これまでのようにタスクを起動します。事前に設定済みのタスク定義から、10のタスクを指定し、また”VPC and security groups”セクションでVPC関連の必要情報をセットしたのちに”Run Task”をクリックします。 起動された10個のタスクは、通常のFargate環境ではなくFargate Spot環境が選択されています。あるタスクをクリックしてみると、実際にキャパシティプロバイダーとしてFARGATE_SPOTが使用されたことがわかります。 ここまで、Fargate Spotの開始方法を紹介してきました。ぜひお手元でも試してみてください。 数週間前にCompute Savings Plansをリリースしました。FargateはCompute Savings Plansの一部に含まれます。さらにここでFargate Spotが登場したことより、費用の大幅な効率化とともに、様々な種類のアプリケーションへの一層の活用が期待できます。いま、Fargateを使うのにまたとないチャンスが訪れていると言えるでしょう。 […]

Read More

Amazon SageMaker Debugger – 機械学習モデルのデバッガ

2019年12月3日、機械学習(ML)学習時に起こる複雑な問題を自動的に識別する Amazon SageMaker の新しい機能、Amazon SageMaker Debugger を発表できて非常にうれしく思います。 機械学習モデルの構築と学習は、サイエンスと工芸の融合です(魔術と言う人もいます)。データセットの収集から準備、さまざまなアルゴリズムの実験、最適なトレーニングパラメーター(恐ろしいハイパーパラメーター)の探索まで、機械学習を実行する人は高性能のモデルを提供するために多くのハードルをクリアする必要があります。これがまさに、機械学習ワークフローを簡素化し高速化する、モジュール式のフルマネージドサービス Amazon SageMaker を構築する理由なのです。

Read More

AWS Transit Gatewayにマルチキャストとインターリージョンピアリング機能を追加

AWS Transit Gateway は、1 つのゲートウェイを使用して、数千の Amazon Virtual Private Cloud(VPC)とオンプレミスネットワークを接続できるサービスです。 お客様は、このサービスがもたらす運用コストの削減と全体的なシンプルさを享受しています。 さらに、本日(2019/12/03) AWS Transit Gateway インターリージョンピアリングと AWS Transit Gateway マルチキャストという 2 つの新機能がリリースされました。 ピアリング お客様がAWSでワークロードを拡張するときに、複数のアカウントやVPCにまたがってネットワークを拡張する必要があります。お客様は、VPCピアリングを使用して VPC のペアを接続するか、PrivateLink を使用して VPC 間でプライベートサービスエンドポイントを公開することができます。 しかし、この管理は複雑です。 AWS Transit Gateway インターリージョンピアリングでは、これに対処し、複数のAWSリージョンにまたがるセキュアでプライベートなグローバルネットワークを簡単に作成できます。 インターリージョンピアリングを使用すると、組織内の異なるネットワーク間で一元化されたルーティングポリシーを作成し、管理を簡素化し、コストを削減できます。 インターリージョンピアリングを流れるすべてのトラフィックは匿名化、暗号化され、AWS バックボーンによって伝送されるため、リージョン間の最適なパスが常に最も安全な方法で確保されます。 マルチキャスト AWS Transit Gateway Multicast を使用すると、クラウドでマルチキャストアプリケーションを構築し、接続された数千の仮想プライベートクラウドネットワークにデータを配信することが容易になります。 マルチキャストは、単一のデータストリームを多数のユーザーに同時に配信します。 これは、ニュース記事や株価などのマルチメディアコンテンツやサブスクリプションデータをサブスクライバーグループにストリーミングするための好ましいプロトコルです。 AWS は、お客様がアプリケーションをクラウドに移行し、AWS が提供する伸縮自在性と拡張性を活用できるようにするネイティブのマルチキャストソリューションを提供する最初のクラウドプロバイダーです。今回のリリースでは、Transit Gatewayにマルチキャストドメインが導入されました。 ルーティングドメインと同様に、マルチキャストドメインを使用すると、マルチキャストネットワークを異なるドメインにセグメント化し、Transit Gateway を複数のマルチキャストルーターとして動作させることができます。 今すぐ利用可能 これら2つの新機能は準備ができており、今日あなたが試すことを待っています。 インターリージョンピアリングは、米国東部 (バージニア北部)、米国東部 […]

Read More

Amazon Redshift の新機能 – データレイクエクスポートとフェデレーテッドクエリー

データウェアハウスは、トランザクション系システムや業務アプリケーションから届いたリレーショナルデータの分析に最適化されたデータベースです。Amazon Redshiftは高速でフルマネージドのデータウェアハウスであり、標準SQLや既存のビジネスインテリジェンス(BI)ツールを用いたデータ分析をシンプルかつ効率的に行うことを可能にします。 データウェアハウス内に格納されていないであろう非構造化データから情報を習得するためには、データレイクを構築するという手段があります。データレイクは、全ての構造化データと非構造化データをあらゆるスケールで格納可能な、一元化されたレポジトリです。Amazon Simple Storage Service (S3)上に構築されたデータレイクによって、ビッグデータ分析を行い、機械学習を用いて準構造化データセット(JSON、XMLなど)や非構造化データから知見を得ることが簡単に行えるようになります。

Read More

Amazon SageMaker Studio: 機械学習のための初の統合開発環境

2019年12月3日、Amazon SageMaker Studioという機械学習のための初の統合開発環境(IDE)を提供できることを非常に嬉しく思います。 2017年に Amazon SageMaker がリリースされてからしばらく経ち、このサービスをご利用いただいているお客様の数は増加しています。機械学習開発ワークフローには反復的なプロセスが必要ですが、機械学習ツールが成熟していないために開発者は大変な思いをしてきました。従来のソフトウェア開発時に開発者が当たり前に使用する多くのツール(デバッガ、プロジェクトマネジメントツール、コラボレーション機能、モニタリングツールなど)は、まだ機械学習用には存在していないのです。

Read More