Amazon Web Services ブログ

週刊AWS – 2024/7/22週

みなさん、こんにちは。ソリューションアーキテクトの根本です。
今週も週刊AWSをお届けします。

みなさん他国のAWS Summitはチェックされていますか?先日行われたAWS Summit New York 2024ではAmazon BedrockやAmazon Qに関連した多くの生成AI機能が発表されました。そこで発表された機能をいくつかのデモを交えてご紹介するセミナーが予定されています。ご都合つけばぜひご参加ください。

2024年8月1日 10:00-11:00 – AWS の生成 AI 最新機能をキャッチアップ!

それでは、先週の主なアップデートについて振り返っていきましょう。

2024年7月22日週の主要なアップデート

  • 7/22(月)
    • Amazon VPC IPAM now supports BYOIP for IPs registered with any Internet Registry
      Amazon VPC IPAMが任意のインターネットレジストリに登録されたIPアドレスのBring Your-Own-IPをサポートしました。BYOIP を設定する際、AWS は、お客様が AWS に持ち込む IP アドレス空間をお客様が管理していることを検証しますが、これまでIPAMは登録データアクセスプロトコル(RDAP)による検証のみをサポートしていましたが、すべてのインターネットレジストリがサポートしているわけではありませんでした。DNS レコードを使用してIPアドレスが自分のものであることを確認できるようになったためJPNIC、LACNIC、AFRINICなど、これまでサポートされていなかったインターネットレジストリでもBYOIPが可能になります。この機能は中国を除くすべてのAWSリージョンで利用できます。詳細はIPAMのドキュメントをご確認ください。
    • Amazon MQ now supports quorum queues for RabbitMQ 3.13
      Amazon MQがquorum queuesをサポートしました。quorum queuesはRabbitMQが提供するデータ一貫性と耐障害性に優れたキューのタイプで、従来のmirrored queuesと比較して最大2倍、スループットが向上します。Amazon MQでquorum queuesのサポートはRabbitMQ 3.13以降のみで、Amazon MQが利用可能なすべてのリージョンで利用可能です。詳細はドキュメントをご確認ください。
    • Amazon Connect Contact Lens now provides generative AI-powered summaries within seconds after a contact ends
      Amazon Connect Contact LensのAIを活用した問い合わせ後の概要生成が、これまでの数分から数秒へとパフォーマンス向上しました。これにより連絡後にスムーズにアフターコールの作業に取り掛かれる他、APIやKinesis Data Streamsを介してCRMシステムとの連携も可能です。この機能は米国西部(オレゴン)および米国東部(バージニア北部)の2つのリージョンで利用可能です。詳細についてはドキュメントをご確認ください。
    • Amazon DocumentDB announces improvements to document compression
      Amazon DocumentDB(MongoBD互換)がクラスターの既存のコレクションへの圧縮や、コレクションごとの圧縮閾値の設定など機能強化されました。これまでは新しい圧縮コレクションを作成し移行する必要がありましたが、今回のアップデートによりそれをせずとも既存のコレクションを圧縮し、最大7倍のサイズ縮小を行うことでストレージコスト、I/Oコストの削減、クエリパフォーマンス向上が見込めます。これらの機能向上はDocumentDBが利用可能なすべてのリージョンのDocumentDB 5.0 インスタンスベースのクラスターでサポートされます。詳細についてはドキュメントをご確認ください。
    • Amazon DocumentDB now supports change streams on reader instances
      Amazon DocumentDB(MongoBD互換)がリーダーインスタンスでの変更ストリームをサポートするようになりました。これによりライターインスタンスの負荷を軽減できます。変更ストリームはリーダー、ライター間で共有できるため、クラスターフェイルオーバーやメンテナンス中は任意のDocumentDBインスタンスから変更ストリームを再開できます。このアップデートはAmazon DocumentDB 5.0インスタンスベースのクラスターと、Amazon DocumentDB がサポートされているすべてのリージョンにあるグローバルクラスターで利用できます。 詳細はドキュメントをご確認ください。
  • 7/23(火)
    • Meta Llama 3.1 generative AI models now available in Amazon Bedrock
      Meta社のLlama 3.1がBedrockで利用できるようになりました。Llama 3.1には8B, 70B, 405Bのパラメーターサイズのモデルがあり、405Bは現時点で公開される中で最高かつ最大の基礎モデルの1つです。Llama 3.1はLlama 3の16倍の128Kのコンテンツ長をサポートしておりより複雑なコンテキストを前提とした会話に対応できる他、8つの言語での多言語対話の推論が改善されています。Llama 3.1モデルは、米国西部 (オレゴン) リージョンでご利用いただけます。405Bは当初はプレビューでしたが、現在はGAしています。(7/26のアップデートも参照)詳細についてはドキュメントブログをご確認ください。
    • Meta Llama 3.1 generative AI models now available in Amazon SageMaker JumpStart
      一つ前で紹介のAmazon Bedrockと同様にAmazon SageMaker JumpStartでもLlama 3.1が利用できるようになりました。SageMaker Studioから数クリックで、またはSageMaker Python SDKでプログラム経由でデプロイして利用することも可能です。SageMaker JumpstartでのLlama 3.1は米国東部 (オハイオ)、米国西部 (オレゴン)、および米国東部 (バージニア北部)の3つのリージョンで利用可能です。詳細はドキュメントブログをご確認ください。
    • Amazon EKS introduces new controls for Kubernetes version support policy
      Amazon EKSのKubernetes バージョンポリシーの新しいコントロールが発表されました。これによりEKSの延長サポートを利用するかどうかをクラスター単位で設定できるようになり、延長サポートを適用したくないクラスターは標準サポート終了時に自動的にアップグレードの対象になるよう設定することが可能です。これによりコスト最適化が可能です。この機能はすべてのAWSリージョンで利用できます。詳細はドキュメントをご確認ください。
    • AWS Mainframe Modernization Code Conversion with mLogica is now generally available
      AWS Mainframe ModernizationのmLogicaによるコード変換が一般提供開始されました。mLogicaとAWS M2の連携は昨年のre:Inventで発表されていましたが、mLogicaはアセンブラで記載されたレガシーコードをCOBOLに自動変換するプロダクトです。多くのメインフレーム環境にはCOBOLに限らず保守が難しく費用がかかるアセンブラコードが含まれており、この機能追加によりメインフレームモダナイゼーションにおけるブロッカーを排除することが可能です。詳細はドキュメントをご確認ください。
  • 7/24(水)
    • AWS Signer open sources Notation plugin for container image signing
      コンテナイメージの署名に利用するNotation用のAWS Signerプラグインがオープンソース化され公開されました。これによりAWS Signerを利用してどのようにコンテナイメージの署名、検証がされているのか確認できるようになりました。オープンソースとして公開されたことで、たとえばGoLangライブラリとして追加することで実行ファイルとしてインストールして呼び出す必要がなくなります。AWS Signer プラグインはApache 2.0 ライセンスとして管理されます。詳細はGitHubのリポジトリブログをご確認ください。
    • Mistral Large 2 foundation model now available in Amazon Bedrock
      Mistral Large 2(24.07) foundation modelがAmazon Bedrockで一般提供開始されました。このモデルはMistral AIの主力モデルの最新バージョンであり、英語、フランス語、ドイツ語、スペイン語、イタリア語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語、アラビア語、ヒンディー語など、数十の言語で情報をシームレスに処理できます。コンテキストウィンドウも前バージョンの32kから128kに拡大され、より多くの情報を処理することが可能です。Mistral Large 2は米国西部 (オレゴン) リージョンの Amazon Bedrock でご利用いただけます。詳細については、ローンチブログもご確認ください。
    • AWS DataSync expands support for agentless cross-region data transfers to include opt-in regions
      AWS DataSyncがリージョン間でのクロスリージョンデータ転送をエージェントレスで実行できるようになりました。DataSyncはデータ転送にあたりエージェントをデプロイ・管理する必要がありましたがそれが不要になり、オペレーションを簡素化することができます。また、対象のリージョンにはオプトインリージョンも含まれます。この機能はData Syncが利用可能なすべてのAWSリージョンで利用可能です。詳細はドキュメントもご確認ください。
  • 7/25(木)
    • Announcing 24 months support for Amazon EMR
      Amazon EMRのリリースバージョンサポートについてアナウンスがありました。今後、EMRはリリース日から24ヶ月間の標準サポート対象となります。この期間はセキュリティ、バグ、データ破損などの関連する重大な問題に対して、アップストリームの修正取り込みに90日以内の目標が設定されます。24ヶ月を過ぎたバージョンは12ヶ月間のサポート終了段階(EoS)に入ります。EoSの期間は、クラスターへのアクセスは引き続き可能ですが、テクニカルサポートやアップストリームの取り込みに関して制約があります。EoS終了後にサポート終了(EoL)となります。特に現在稼働するバージョンなど例外的な期間が設定されている場合がありますので、ライフサイクルの詳細や各バージョンの時期一覧などはドキュメントの記載をご確認ください。
    • Amazon SageMaker launches faster auto-scaling for Generative AI models
      Amazon SageMaker Inferenceが生成AIのモデル呼び出し需要に応じてこれまでより高速にオートスケールできるようになりました。この機能はCloudWatchのメトリクス(モデルごとの同時リクエストと、モデルコピーあたりの同時リクエスト数)を元にします。10秒間隔で出力されるこのメトリクスを元に、オートスケーリングポリシーで定義した閾値に達した場合1分以内にインスタンスまたはモデルコピーの追加を開始します。この機能は中国とAWS GovCloud (米国)を除く Amazon SageMaker Inference が利用可能なすべての AWS リージョンのアクセラレータインスタンスファミリー (g4dn、g5、g6、p2、p3、p4d、p4、p5、inf1、inf2、trn1n、trn1) で利用可能です。詳細はブログもご確認ください。
    • AWS Clean Rooms launches new capabilities for entity resolution, ML modeling, privacy, and analysis controls
      AWS Clean RoomsでAWS Entity Resolutionの一般提供、データ分析のプライバシー管理機能の追加、分析結果を受け取るコラボレーターを設定する機能、SQLを使用して類似モデリング用のシードデータを生成する機能の4つのアップデートがありました。AWS Entity Resolutionの統合により複数データソースのレコード照合や重複排除が容易になる他、SQLの特定の出力列の制御や、分析結果を受け取るコラボレーターを簡単に選択可能になるなどプライバシー管理機能の強化によりセキュアな情報を保護しながらより柔軟に使用できるようになりました。詳細に関してはブログをご確認ください。
  • 7/26(金)
    • Meta Llama 3.1 405B now generally available in Amazon Bedrock
      Meta社のLlama 3.1 405BがBedrockで一般提供が開始されました。7/23(火)の時点では405Bのモデルはプレビューとしてアクセスリクエストが必要でしたが、正式に一般提供がされた形です。他のLlama 3.1モデル同様、提供リージョンは米国西部(オレゴン)となっています。詳細についてはローンチブログもご確認ください。

最後に、冒頭に紹介したAWS の生成 AI 最新機能をキャッチアップ!8月8日に「最新事例からはじめる生成AI活用」が開催されます。金融から製造まで様々な業種の事例やデモをご紹介予定です。よかったらこちらもチェックしてみてください。

2024年8月8日 14:00-16:00 – 最新事例からはじめる生成AI活用

それでは、また来週!

著者について

Yuki Nemoto

根本 裕規(Yuki Nemoto)

AWS Japan のソリューションアーキテクトとして、金融機関のお客様の AWS 活用や個別案件の技術支援を担当しています。過去には公共部門やモダナイゼーションのスペシャリストもしていました。好きなサービスは AWS CodeBuild です。週末はオフロードバイクのレースをしています!