Amazon Web Services ブログ

Monitor Python apps with Amazon CloudWatch Application Signals (Preview)

Python アプリのモニタリングを Amazon CloudWatch Application Signals (プレビュー) で実施

このブログ投稿では、Amazon EKS クラスター上で実行されている Python アプリケーションを、コード変更を行うことなくシームレスに計装するための CloudWatch Application Signals の活用方法について説明します。この強力な機能により、アプリケーションサービスのゴールデンメトリクスとトレースを簡単に収集でき、監視とトラブルシューティングが容易になることができます。さらに、Application Signals が提供する既製のダッシュボードを使うことで、アプリケーションサービスの全体の活動状況と運用の健全性をどのように視覚化できるかを説明します。これらのダッシュボードを活用することで、主要なパフォーマンスメトリクスにすばやくアクセスし、トレースと関連付けて、根本的な問題を数クリックで簡単に特定して対処できます。

Announcing Amazon CloudWatch Container Insights for Amazon EKS Windows Workloads Monitoring

Amazon EKS Windows ワークロードの監視のための Amazon CloudWatch Container Insights 発表

この記事では、Amazon EKS Windows クラスターに Container Insights を有効化するプロセスを紹介します。Container Insights を利用することで、数回のクリックで、Amazon EKS Windows クラスターのコントロールプレーンとデータプレーンの両方の詳細なメトリクスを収集できるようになります。Amazon EKS クラスターで高度な CloudWatch Container Insights を有効にし、Amazon EKS クラスター上で実行中の Windows ワークロードの組み込みのダッシュボードを使うことで、パフォーマンス問題の特定と解決にかかる時間を短縮できます。

AWS Amplify によるフルスタック開発の進化

高速でパーソナライズされた体験を提供するために、Web アプリケーションの構築とレンダリング方法は、長年にわたって大きく進化してきました。その過程で、Web アプリケーションを構築する開発者の役割も、この進化を反映して変化してきました。本記事では、フルスタックの Web 開発の進化過程と、急速に変化する Web アプリケーションエコシステムやユーザーのニーズに対し、開発者が AWS Amplify を使って適応する方法について説明します。

生成 AI アシスタント Amazon Q を用いて、ソフトウェア開発を加速し、ビジネスデータを活用する

我々は生成AI があらゆる顧客体験を革新する可能性があると考えています。そのために、生成 AI スタックの 3 層すべてで最も包括的な機能を提供すべく、急速にイノベーションを進めています。これらすべてのレイヤーは生成 AI の進化に重要ですが、本記事では上位層にあたるアプリケーション層への投資について説明します。

Amazon Q Business と Amazon Q in Quicksightによって、従業員は社内のナレッジを用いて、データ主導で、より良く素早い判断を可能に

2024年4月30日、Amazon Q の一般提供を発表しました。Amazon Q は、ソフトウェア開発を加速し、企業の内部データを活用するための最も優れた生成 AI 搭載アシスタントです。どの組織でも従業員は、週に数時間を内部情報の検索に費やしています。また、分析の集約、レポート作成、プレゼンテーション作成、ダッシュボードからの洞察の作成と検索、さまざまな顧客や対象者向けのコンテンツ作成にも時間を費やしています。Amazon Q Business と Amazon Q in QuickSight は、これらの作業をより効率化するために開発しました。

AWS Trainium を活用した日本語大規模言語モデルの分散学習と AWS Inferentia2 上での推論環境構築

生成 AI の進化を支える大規模言語モデルの開発及び運用に掛かるコスト、計算機リソースの確保は多くの企業が抱える大きな課題です。AWS では機械学習 (ML) アクセラレーターチップ AWS Trainium、AWS Inferentia2 を自社開発し、これらの課題解決に取り組んでいます。(Anthropic では AWS Trainium、Inferentia の活用を表明しています)
本ブログでは、前半で、AWS Trainium 搭載 Amazon EC2 Trn1 インスタンスを活用した日本語大規模言語モデルの開発事例、大規模分散学習の課題及び実現方法について解説します。
ブログ後半では、公開された日本語大規模モデルを Inferentia2 搭載 Amazon EC2 Inf2 インスタンス上で推論実行する方法について、手順を追って解説します。