Amazon Web Services ブログ

Category: Expert (400)

SAP HANA の高可用性テストを自動化

アプリケーションの耐障害性を理解し、デプロイされたアプリケーションが目標復旧時間を満たしていることを確認するには、高可用性テストが必要です。多くの組織では、監査プロセスへの準拠を維持するために、高可用性構成を時々テストする必要もあります。このブログで詳しく説明されているソリューションは、AWS SAP プロフェッショナルサービスチームが多くのお客様と共同で行った SAP HANA ワークロードの高可用性クラスタのデプロイとテストを自動化した結果です。これらのテストシナリオを自動化し、チームの時間を大幅に節約し、監査プロセスのコンプライアンスを維持するための出発点として使用できるサンプルコードを共有します。

AWS IAM Identity Center における許可セットの管理とアカウント割り当ての委任

こちらのブログでは、AWS IAM Identity Center(AWS Single Sign-On の後継)を使用して、許可セットとアカウント割り当ての管理を委任する方法をご紹介します。日々のユーザーと権限の管理を委任することで、チームはより速く動き、中央集権的なアイデンティティ管理者の負担を軽減できます。

AWS IoT Core における証明書要件の変更への対応方法

この記事では、Symantec Server の中間認証局 (ICA) の今後の変更と、コントロールプレーンエンドポイントのデフォルトでの TLS 1.2 への切り替えについて説明します。また、AWS IoT Core のカスタムドメインと設定可能なエンドポイント機能の使用方法に関する推奨事項についても説明します。さらに、単一の信頼できるエンドポイントに接続するデバイスにクライアント側のカスタム証明書 (自己署名された証明書) を使用する方法についても説明します。これにより、パブリック CA に関連する不確実性がなくなります。

Amazon FSx でサーバレスワークロードの SMB 共有を実現する

クラウドファースト戦略を採用する多くのお客様は、俊敏性の向上とコストの最適化のために、自動拡張、ビルトインされた高可用性、使用量に応じた課金モデルを提供するサーバーレス技術やクラウドファイルストレージを優先的に採用しています。お客様がサーバーレスアーキテクチャを採用する際、永続的なストレージ層におけるデータアクセスの共有が必要になる場合があります。AWS Lambda には、お客様のコード用に 512MB の一時ファイルシステムが含まれていますが、これは耐久性のあるストレージを意図したものではなく、一時的なリソースとなります。この記事で紹介する Lambda 関数の SMB 統合により、関数の呼び出しにまたがるデータの共有、大きな参照データファイルの読み込み、関数の出力の永続的な共有ストアへの書き込みが可能になります。

Amazon SageMaker で OpenChatKit モデルを活用し カスタムチャットボットアプリを構築するには

オープンソースの大規模言語モデル (LLM) が普及し、研究者、開発者、組織がこれらのモデルにアクセスして、イノベーションや実験を促進できるようになりました。オープンソースコミュニティの協業が促進され、LLM の開発と改善に貢献しています。オープンソースの LLM はモデルアーキテクチャやトレーニングプロセス、トレーニングデータに透明性を提供し、これによって研究者はモデルの仕組みを理解し、潜在的なバイアスを特定し、倫理的な懸念に対応することができます。これらのオープンソースの LLM は、高度な自然言語処理 (NLP) テクノロジーを幅広いユーザーが利用してミッションクリティカルなビジネスアプリケーションを構築できるようにすることで、生成系AIを民主化しています。GPT-NeoX や LLaMA、Alpaca、GPT4All、Vicuna、Dolly、OpenAssistant は、人気のあるオープンソースの LLM のうちの一部です。

Amazon SageMaker、Amazon OpenSearch Service、Streamlit、LangChain を使った質問応答ボットの構築

エンタープライズ企業における生成系 AI と大規模言語モデル (LLM) の最も一般的な用途の 1 つは、企業の知識コーパスに基づいた質問応答です。Amazon Lex は AI ベースのチャットボットを構築するためのフレームワークを提供します。事前学習済みの基盤モデル (Foundation Models; FM) は、さまざまなトピックに関する要約・テキスト生成・質問応答などの自然言語理解 (NLU) タスクではうまく機能しますが、幻覚やハルシネーションと言われる不正確な情報を含まない回答を提供するのが難しい、もしくは、学習データに含まれない内容に関する質問へ回答することはできません。さらに、基盤モデルは特定の時点のデータをスナップショットとして使用してトレーニングされており、推論時に新しいデータにアクセスすることはできません。推論時に最新のデータにアクセスできない場合、不正確または不適切な応答を返す可能性があります。

glTF を 3D タイルに変換して AWS IoT TwinMaker で大規模モデルのストリーミングを実現する

AWS IoT TwinMaker で 3D シーンをロードするときに、長い待ち時間が発生したことがありますか? 複雑な 3D モデルを表示するときに、レンダリングパフォーマンスの低下に悩まされているのではないでしょうか。シーン内で効率的にストリーミングできるように、モデルを 3D タイル形式に変換する方法があります。

このブログでは、Cesium ion を使用して 3D モデルまたは点群ファイルを 3D タイルセットに圧縮する方法と、変換された 3D タイルセットを使用して TwinMaker シーンを作成する方法を学びます。3D タイルセットを使用すると、元のモデルサイズを 50% から 90% 縮小し、AWS IoT TwinMaker 搭載ダッシュボードのレンダリングパフォーマンスを向上させることができます。