Amazon Web Services ブログ
AWS ウィークリーラウンドアップ — AWS Lambda、PartyRock ハッカソンなどの .Net ランタイム — 2024 年 2 月 26 日
Community AWS re:invent 2023 re:caps が継続! 最近、AWS User G […]
メキシコの新しい AWS リージョンが準備中
2月26日、メキシコの AWS リージョンへの取り組みについてお知らせできることを嬉しく思います。この AWS […]
Mistral AI モデルが Amazon Bedrock で間もなく利用可能に
フランスに本拠を置く AI 企業である Mistral AI は、公開されているモデルを最先端のパフォーマンス […]
Amazon BedrockでAnthropic社のClaude 2.1 モデルが東京リージョンに対応しました。
Amazon Bedrockの基盤モデルの一つであるClaude 2.1が東京リージョンでアクセスできるように […]
AWS Outposts でのキャパシティ管理戦略
このブログ記事では、AWS Outposts ラックを複数のワークロードで利用する際の Amazon Elas […]
AWS Outposts servers lab Tokyo がオープンしました
2024年2月に、アマゾン ウェブ サービス ジャパン合同会社 目黒オフィス17階にある AWS Startu […]
生成 AI をセキュアにする: 生成 AI セキュリティスコーピングマトリックスの紹介
このブログは、生成 AI のセキュリティ保護に関するシリーズの第 1 回目であり、導入する生成 AI ワークロードのタイプに基づいて、リスクとセキュリティの影響へのアプローチに役立つメンタルモデルを確立します。そして、生成 AI ワークロードを保護する際にセキュリティリーダーと実務者が優先すべき重要な考慮事項について説明します。
Amazon Rekognition のカスタムモデレーションを利用して独自のモデルで不適切なコンテンツを検出
画像や動画などのコンテンツを自社サービスのユーザーに共有・公開するとき、肌の露出が多い画像や暴力的な画像など、不適切なものを取り除きたい場面は多くあります。特に、ユーザーが生成したコンテンツを他のユーザーに公開するときや、生成 AI が作成したコンテンツを広く公開するときには、コンテンツの品質を担保することは重要です。しかし、画像や動画の確認を全て人力で行うのは、コンテンツの量が膨大になるほど時間がかかってしまいます。そんなときに、Amazon Rekognition のモデレーション機能を使えば、不適切なコンテンツを検出できます。
このブログでは、Amazon Rekognition カスタムモデレーションを用いて、モデレーション機能を自身のワークロードにカスタマイズする方法をご紹介します。ユースケースやカスタムモデレーション機能の利用方法、実際に試してみた際の精度をご紹介します。
【開催報告&資料公開】AWS メディアセミナー 2024 Q1~ AWS re:Invent Recap メディア & エンターテインメント編 ~
2023 年 11 月 27 日 – 12 月 1 日 にラスベガス開催された AWS re:In […]
Well-Architected Framework Review の実施方法 – パート 3
これまでのブログ投稿で、Well-Architected Framework Review(WAFR) を実行するための最初の 2 つのフェーズについて説明しました。 最初のフェーズは準備で、2 番目のフェーズはレビューを実施することです。 このブログ投稿では、3 番目のフェーズである改善について詳しく説明します。







