Amazon Web Services ブログ

Analytics Fabric for SAP Acceleratorsで RISE with SAP on AWS の拡張実現

このブログは、AWSの以下のメンバーによって共同執筆されました:

Pavol Masarovic, EMEA Principal SAP Innovation Architect

Allison Quinn, Senior Analytics Solutions Architect Australia and New Zealand

Peter Perbellini, Head of APJ Solutions Architecture, ERP on AWS

はじめに

AWSでは、お客様からSAPシステムをクラウドに移行するだけでなく、データに対して分析機能を活用し、組織の変革を実現したいという声をよく聞きます。去年リリースされたジョイントレファレンスアーキテクチャ (JRA) に沿って、RISE with SAP on AWS を採用している客様に更なる価値をもたらすために、AWS ネイティブサービスを統合しています。AWS と SAP BTP のジョイントレファレンスアーキテクチャは、異なるビジネスソリューションシナリオでどのように SAP BTP や AWS サービスを使用するかについて、お客様やパートナー様からの質問に対応するために開発されました。

SAP のお客様は既に AWS 上のデータレイクを活用し、SAP と SAP 以外のデータを組み合わせ、AWSの業界をリードするストレージとアナリティクス機能を活用しています。その中には、 BizzyInvistaZalandoBurberryVisyDelivery HeroEngie のようなお客様を含め、何年前からこのような取り組みを行っているお客様は複数います。お客様は、SAP と SAP 以外のデータ (例えば、CRM システムからのリード情報、顧客満足度点数、住宅統計、気象データ) を組み合わせたエンタープライズ・ダッシュボード、ML モデル、「what-if」シナリオを構築する方法を探しています。AWS Analytics Fabric for SAP ソリューションを利用することで、SAP on AWS のお客様は、構築に必要な AWS サービスを考える負担がなくなり、構築作業を最大 90% 削減しながら、データドリブンアプローチにより数時間以内にSAPデータから実用的な洞察を得られます。

AWS Analytics Fabric for SAP を使用することで、ユーザーは製品、顧客、販売注文、納品、請求書などの機能領域を選択することができ、ソリューションのテンプレートには必要なテーブルとそれらの関連性を特定します。

AWS Analytics Fabric for SAP は以下の内容を含めます。

  • 生成されるデータモデルは、ビジネスコンテキストを持ち、ビジネスフレンドリーな名前を提供
  • 差分データ抽出 (CDC)、データ変換ルール、カスタムフィールドの自動的に含める包括的な機能を備えた、シンプルで適応性の高いニアリアルタイムのデータパイプラインを実現
  • Amazon S3 で高度にスケーラブル可能な AWS データレイクを構築し、 Amazon S3 Intelligent Tiering を使用して費用対効果の高い階層にデータを保存
  • ユーザが SAP データおよび  SAP 以外のデータに対して高度な分析やレポート作成をするために、高品質のデータモデルを提供

AWS Analytics Fabric for SAP を使用する主なメリット

AWS Analytics Fabrics for SAP は、RISE のお客様の変革を加速し、AWS のデータ分析や AI/ML サービスからさらなる価値を引き出すために構築されました。モダンデータアーキテクチャのフレームワークに基づいているため、SAP on AWS のすべてのお客様がデータを活用し、ビジネスユースケースの要件に応じて拡張することも可能です。これらのアクセラレータは、開発のベースラインとして使用したり、お客様の要件に合わせて簡単に変更・カスタマイズすることができます。

データの取り込みは、標準で提供される SAP Business Content Extractor に基づいています。これらは要件に応じて、SAP HANA CDS ビューまたはソーステーブルから抽出するように変更できます。データ取り込み処理は、分単位の間隔でスケジュールし、差分データのみ抽出します。この方法では、データソースで行われた変更を含めすべてのデータが取り込まれます。

その後、データは Amazon Redshift にロードされますが、ロードの処理はAWS Step Functions で制御され、参照整合性のために適切な順序を保ちます。Amazon Redshift 側には、様々な SAP ソースを結合したデータモデルのサンプルも提供されており、Amazon QuickSight でこれらのデータを迅速に利用し、洞察を得ることができます。お客様は、これらの事前定義されたデータモデルを簡単に改修したり、SAP のソースデータを Redshift やデータレイク環境で利用可能な他のデータと簡単にモデリングできます。

このアーキテクチャ図は、OData プロトコルを介して SAP からデータを抽出し、AWS 上で SAP データを使用してクラウドデータウェアハウス構成と構築ステップを表しています。

以下は各ステップの説明です。前提条件に関しては次のセクションで詳しく説明します。

  1. 前提条件 – 標準の SAP Business Content Extractors をインストールし、有効化します。SAP システムの SAP Gateway で、ODP ベースの OData を設定します。
  2. 前提条件 – Amazon AppFlow から SAP ソースシステムへの OData 接続先を作成します。SAP on AWS 又は VPN /ダイレクトコネクト経由で AWS との接続がある場合はPrivateLinkを使用可能であり、またはインターネット経由での接続も可能です。
  3. 前提条件 – データを保存する Amazon S3 バケットを作成します。
  4. Amazon AppFlow で、ステップ 2 で作成した SAP ソースとの接続先を使用してフローを作成します。フローを実行して SAP からデータを抽出し、Amazon S3 バケットに保存します。
  5. Amazon S3 バケットに抽出された SAP データのメタデータを認識するために、データカタログエントリを作成します。
  6. ‘ COPY ‘ コマンドで Amazon Redshift にデータをロードします。データを適切にモデル化し、データの過去の動きを可視化する機能を有効にします
  7. Amazon Redshift をデータソースとして Amazon QuickSight でデータセットを作成します。要件に応じてビジネスデータのダッシュボードを作成します。
  8. AWS Step Functions でエンド・ツー・エンドのプロセスを自動化します。

SAP ソースシステムから抽出されたデータにより、お客様は直ちに、受注件数、受注総額、未決済受注件数および未決済受注総額、返品件数、平均受注額(AOV)、納期遵守率(DIFOT)、請求済み受注、受注処理率等のOrder-to-Cashに関連する主要業績評価指標(KPI)を導き出すことができます。これに加えて、データの差分抽出(CDC)を活用することで、お客様は、注文数量変更や納品時間枠変更など、データ更新を含む各注文のジャーニーを時系列で分析することができます。

前提条件

AWS Analytics Fabric for SAPのデプロイには3つの前提条件があります。

  • Git レポジトリに記載されているエクストラクタをSAPシステムでインストールします。既に SAP BW システムがある場合は、すでにインストールされているかもしれません。これらのエクストラクタは、トランザクションコード SEGW で ODataサービスのソース ODP として定義する必要があります。
  • Amazon AppFlow で SAP システムへの接続先を作成します。これは接続先の情報と認証情報だけの簡単な入力も可能であり、AWS と SAP システム間の AWS PrivateLink を使う場合 PrivateLinkの情報も必要になります。これは 1 回だけ行う必要があるステップです。
  • SAP データを格納するAmazon S3 バケットを作成します。

これらの前提条件が完了すれば、残りの構築ステップはスムーズになります。

デプロイメント

デプロイは、AWS CloudFormation テンプレートとスクリプトを使用して自動化されており、必要に応じて迅速に実装、変更、拡張することができます。テンプレートはパラメータ化されており、迅速なデプロイが可能です。AWS Analytics Fabric for SAP の初回リリースは、”Order to Cash ” プロセスにフォーカスしており、他のプロセスも今後リリースされる予定です。

Git リポジトリのガイダンスに従って、定義された順序で各コンポーネントを実装してください。Git レポジトリには、テンプレート以外に、ほかの参考情報も記載してあります。

デプロイのステップは以下になります。

  1. SAP システムからデータを抽出するために Amazon AppFlow のフローをデプロイします。これにより、自動的にフローがアクティブになり、指定したタイミングに基づいてデータの取り込み処理が実行されます。
  2. データエントリーの技術メタデータカタログである AWS Glue データカタログをデプロイします。これにより、Amazon Athena などのサービスでデータを参照して利用できるようになります。
  3. Redshift クラスタを作成するために、Git レポジトリに Redshift 用のスクリプトがあります。最初に DDL(データ定義言語)スクリプトを実行し、データをロードするためのテーブル定義を作成します。その後、ほかのスクリプトを実行し、データパイプラインコンポーネントとCDC(Change Data Capture)パイプライン管理を作成します。すべてのテンプレートスクリプトは定義済みですが、SAP ソースシステムでカスタマイズがある場合など、カスタマイズや変更、拡張が可能です。
  4. プロセス全体のオーケストレーションとデータパイプラインアラートのために Step Functions をデプロイします。
  5. Amazon QuickSight アカウントを作成し(まだアクティブなアカウントがない場合)、Amazon Redshift クラスタに接続し、Amazon Redshift で使用可能なモデリングされたデータに基づいてデータソースを定義します。

上記は、提供された CloudFormation テンプレートのデータセットを使って Amazon QuickSight での可視化の例です。SAP 注文の異常検知や予測を追加するために、機械学習を活用した洞察機能で Order-to-cash の様々な KPI を可視化することができます。

まとめ

AWS Analytics Fabric for SAP は、ビジネスユーザーが SAP データから迅速に実用的な洞察を得られるために、簡単で効率的な方法を提供しています。AWS 上で SAP 環境を稼働しているお客様は、AWS マネジメントコンソールでこのサービスを使い始めることができます。また、オンプレミスで SAP システムを稼動しているお客様は、SAP データを Amazon S3 に格納することで、AWS 上で強力なデータレイクを作成し、SAP への投資効果拡大や企業データから新たな価値を得ることができます。

アクセラレータを利用するための初期費用は不要で、利用する AWS サービスに対する課金となります。例としては、Amazon AppFlow のフロー実行コストは、実行ごとにわずか $0.001 です。販売伝票ヘッダーの取込みを 5 分ごとに 24 時間実行する場合、1 日あたり 288 回の実行があり、1ヶ月あたりのコストは $8.76 となります ( 1 日288 回 * ( 月の平均 730 時間 / 1 日 24 時間) = 月に 8760 フロー実行 * $0.001 = $8.76 ) 。また、処理したデータ量に応じて、1GB までは 1GB あたり $0.02、1GB 以上は 1GB あたり $0.10 の課金になります。差分抽出を実行することで、データ処理コストを最小限に抑えられます。Glue データカタログは、最初の 100 万オブジェクトの保存料と、最初の月間 100 万リクエストは無料です。Redshift サーバーレスの価格は、RPU 時間(Redshift 処理ユニット)あたり $0.36 からです。AWS価格の詳細については、AWS Pricing Calculator をご覧ください。(**この例の参考価格はすべて us-east-1 リージョンに基づいていることをご注意ください。)

始めるには、まず AWS Analytics Fabric for SAP のリポジトリをご覧ください。AWS が何千のアクティブな SAP お客様にイノベーションプラットフォームとして選択された理由は、AWS for SAP のページをご覧ください。

翻訳は Specialist SA トゥアンが担当しました。原文はこちらです。