AWS Clean Rooms が PySpark ジョブ用の設定可能なコンピューティングサイズをサポート
投稿日:
2025年9月4日
AWS Clean Rooms が PySpark 用の設定可能なコンピューティングサイズをサポートするようになりました。これにより、お客様はパフォーマンス、規模、コスト要件に基づいて PySpark ジョブを実行するためのリソースを柔軟にカスタマイズして割り当てることができます。今回のリリースにより、Apache Spark の Python API である PySpark を使用する各分析に対して、ジョブ実行時のインスタンスタイプとクラスターサイズを指定できるようになります。例えば、お客様は大規模なインスタンス構成を使用して複雑なデータセットや分析に必要なパフォーマンスを実現したり、より小さなインスタンスを使用してコストを最適化したりできます。
AWS Clean Rooms は、企業とそのパートナーが、互いの基礎データを公表したりコピーしたりすることなく、データセットの集合体を簡単に分析し、コラボレーションできるように支援します。AWS Clean Rooms を利用できる AWS リージョンの詳細については、AWS リージョン表をご覧ください。AWS Clean Rooms を使用したコラボレーションの詳細については、AWS Clean Rooms をご覧ください。