Kafka と Spark の相違点は何ですか?

Apache Kafka はストリーム処理エンジンであり、Apache Spark は分散データ処理エンジンです。分析では、組織は主に 2 つの方法 (バッチ処理とストリーム処理) でデータを処理します。バッチ処理では、単一のワークロードで非常に大量のデータを処理します。ストリーム処理では、小さなユニットをリアルタイムフローで継続的に処理します。もともと、Spark はバッチ処理用に設計され、Kafka はストリーム処理用に設計されました。その後、Spark は、基盤となる分散アーキテクチャに対するアドオンとして Spark Streaming モジュールを追加しました。ただし、Kafka は、ストリーミングデータのほとんどのユースケースで、より低いレイテンシーとより高いスループットを提供します。

Kafka について読む »

Spark について読む »

Kafka と Spark にはどのような類似点がありますか?

Apache Kafka と Apache Spark はどちらも、データをより高速に処理できるように Apache Software Foundation により設計されています。組織は、さまざまなデータソースからリアルタイムの情報を取り込み、保存、および分析ができる最新のデータアーキテクチャを必要としています。

Kafka と Spark には、高速データ処理を管理するための重複する特性を備えています。 

ビッグデータ処理

Kafka は、大量のデータをリアルタイムで取り込んで処理するために、複数のサーバーに分散されたデータパイプラインを提供します。さまざまなソース間での効率的な継続的なデータ配信を必要とするビッグデータのユースケースをサポートします。

同様に、Spark を使用して、さまざまなリアルタイム処理ツールや分析ツールでデータを大規模に処理できます。たとえば、Spark の機械学習ライブラリである MLlib を使用すると、デベロッパーは保存されたビッグデータセットをビジネスインテリジェンスアプリケーションの構築に使用できます。

ビジネスインテリジェンスについて読む »

データの多様性

Kafka と Spark はどちらも、非構造化、半構造化、および構造化データを取り込みます。Kafka または Spark を使用して、エンタープライズアプリケーション、データベース、またはその他のストリーミングソースからデータパイプラインを作成できます。どちらのデータ処理エンジンも、プレーンテキスト、JSON、XML、SQL、および分析で一般的に使用されるその他のデータ形式をサポートしています。

また、データウェアハウスなどの統合ストレージに移動する前にデータは変換されますが、これには追加のサービスや API が必要になる場合があります。 

スケーラビリティ

Kafka は高度にスケーラブルなデータストリーミングエンジンであり、垂直方向と水平方向の両方にスケールできます。特定の Kafka ブローカーをホストするサーバーにさらにコンピューティングリソースを追加して、トラフィックの増加に対応できます。あるいは、ロードバランシングを改善するために、異なるサーバーに複数の Kafka ブローカーを作成することもできます。

同様に、クラスターにノードを追加することで Spark の処理能力をスケールすることもできます。たとえば、複数のノードにイミュータブルデータの論理パーティションを格納して並列処理を行う、耐障害分散データセット(RDD) を使用しています。そのため、Spark を使用して大量のデータを処理する場合にも最適なパフォーマンスを維持できます。 

ワークフロー: Kafka とSpark

Apache Kafka と Apache Spark は異なるアーキテクチャで構築されています。Kafka は、トピック、ブローカー、クラスター、およびソフトウェア ZooKeeper を分散して配置することで、リアルタイムのデータストリームをサポートします。一方、Spark はデータ処理のワークロードを複数のワーカーノードに分割し、これはプライマリノードによって調整されます。 

Kafka はどのように機能しますか?

Kafka は、リアルタイムの分散処理エンジンを使用してデータプロデューサーとコンシューマーをつなぎます。Kafka のコアコンポーネントは以下のとおりです。

  • コンシューマーとプロデューサーの間のトランザクションを促進するブローカー
  • 異なるサーバーにある複数のブローカーで構成されるクラスター

プロデューサーは Kafka クラスターに情報を公開し、コンシューマーは情報を取得して処理します。各 Kafka ブローカーはメッセージをトピックに従って整理し、ブローカーはそれを複数のパーティションに分割します。特定のトピックに共通の関心を持つ複数のコンシューマーが、関連するパーティションをサブスクライブし、データのストリーミングを開始することができます。 

Kafka は、コンシューマーがデータを読んだ後でもデータのコピーを保持します。これにより、Kafka はプロデューサーとコンシューマーに回復力があり耐障害性のあるデータフローとメッセージング機能を提供できます。さらに、ZooKeeper はすべての Kafka ブローカーの健全性を継続的にモニタリングしています。これにより、常に他のブローカーを管理するリードブローカーが存在することが保証されます。 

Spark はどのように機能しますか?

Spark Core は、基本的な Spark 機能を含むメインコンポーネントです。この機能には、分散データ処理、メモリ管理、タスクのスケジューリングと割り当て、およびストレージシステムとのやりとりが含まれます。 

Spark は、データ変換とバッチ処理のワークフローをサポートする複数のシーケンシャルレイヤーを備えた分散型プライマリ/セカンダリーアーキテクチャを採用しています。プライマリノードは、データ処理タスクをスケジュールしてワーカーノードに割り当てる中心的コーディネーターです。 

データサイエンティストがデータ処理リクエストを送信すると、以下の手順が実行されます。

  1. プライマリノードは、そのデータのイミュータブルコピーを複数作成します。
  2. グラフスケジューラを使用して、リクエストを一連の処理タスクに分割します。
  3. タスクは Spark Core に渡され、Spark Core はタスクをスケジュールして特定のワーカーノードに割り当てます。

ワーカーノードがタスクを完了すると、クラスターマネージャーを通じて結果がプライマリノードに返されます。 

主な相違点: 教師あり学習と教師なし学習

教師あり学習では、バナナの画像にラベルを付けてアルゴリズムを学習させることで、バナナを正確に認識して数えることができます。一方、教師なし学習では、類似点に基づいて画像をグループ化します。このモデルでは、バナナであることを明確に知らなくても、さまざまな種類のバナナを識別したり、他の果物とグループ化したりできる可能性があります。次に、さらにいくつかの相違点について説明します。

目的

教師あり学習の主な目的は、既知の入力に基づいて出力を予測することです。

一方、教師なし学習の主な目的は、入力データポイント間の意味のある関係情報を特定し、その情報を新しい入力に適用して、同様のインサイトを引き出すことです。

アプローチ

教師あり学習は、予測された出力と実際のラベルとの間の誤差を最小限に抑えることを目的としています。学習した関係を一般化して、目に見えないデータについて正確な予測を行います。

対照的に、教師なし機械学習モデルは、ガイダンスなしでデータの固有の構造を理解することに重点を置いています。データ内のパターン、類似点、または異常の検知を優先します。

複雑さ

教師あり学習と教師なし学習の手法はどちらも、問題セットに応じて、比較的基本的な統計モデリング関数から非常に複雑なアルゴリズムまでさまざまです。

教師あり学習アプリケーションは広く普及しており、技術者以外のユーザーも既存のモデルに基づいてカスタムソリューションを開発できます。

対照的に、教師なし学習アプリケーションの開発は、データにパターンや関係が存在する可能性が非常に大きいため、開発が困難な場合があります。

主な相違点: Kafka と Spark

Apache Kafka と Apache Spark はどちらも、組織に高速なデータ処理機能を提供します。ただし、アーキテクチャの設定が異なり、ビッグデータ処理のユースケースでの動作方法に影響します。

ETL

抽出、変換、ロード (ETL) は、複数のソースからのデータを、大規模な中央リポジトリにまとめるプロセスです。多様なデータを標準形式に変換するには、データ変換機能が必要です。

Spark には、多くの変換機能とロード機能が組み込まれています。ユーザーはクラスターからデータを取得し、変換して適切なデータベースに保存できます。 

一方、Kafka はデフォルトでは ETL をサポートしていません。代わりに、ユーザーは API を使用してデータストリームで ETL 機能を実行する必要があります。以下に例を示します。

  • Kafka Connect API を使用すると、デベロッパーは 2 つのシステム間で抽出 (E) 操作とロード (L) 操作を有効にできます。
  • Kafka Streams API を使用すると、デベロッパーはイベントメッセージを異なる形式に操作するために使用できるデータ変換 (T) 機能を利用できます。

ETL について読む »

レイテンシー

Spark は、リアルタイム処理とデータ分析をサポートできなかった Apache Hadoop に代わるものとして開発されました。Spark はデータをハードディスクではなく RAM に保存するため、ほぼリアルタイムの読み取り/書き込み操作が可能です。 

一方、Kafka は超低レイテンシーのイベントストリーミング機能で Spark よりも優れています。デベロッパーは Kafka を使用して、リアルタイムのデータ変更に対応するイベント駆動型アプリケーションを構築できます。たとえば、デジタル音楽プロバイダーの The Orchard は、Kafka を使用して、サイロ化されたアプリケーションデータを従業員やお客様とほぼリアルタイムで共有しています。

The Orchard が AWS と連携している方法を読む »

プログラミング言語

デベロッパーは Spark を使用して、データ処理プラットフォーム上で複数の言語でアプリケーションを構築してデプロイできます。これには Java、Python、Scala、R が含まれます。Spark には、デベロッパーがグラフ処理や機械学習モデルを実装するために使用できるユーザーフレンドリーな API とデータ処理フレームワークも用意されています。

対照的に、Kafka はデータ変換のユースケース向けの言語サポートを提供していません。そのため、デベロッパーは追加のライブラリがないとプラットフォーム上に機械学習システムを構築できません。 

可用性

Kafka と Spark はどちらも、高い可用性と耐障害性を備えたデータ処理プラットフォームです。

Spark は複数のノードでワークロードの永続的なコピーを維持します。いずれかのノードに障害が発生した場合、システムは残りのアクティブノードの結果を再計算できます。 

一方、Kafka はデータパーティションをさまざまなサーバーに継続的に複製します。Kafka のパーティションがオフラインになると、自動的にコンシューマーのリクエストをバックアップに転送します。 

複数のデータソース

Kafka は複数のデータソースからのメッセージを同時にストリーミングします。たとえば、さまざまなウェブサーバー、アプリケーション、マイクロサービス、およびその他のエンタープライズシステムから、特定の Kafka トピックにリアルタイムでデータを送信できます。

一方、Spark は一度に 1 つのデータソースに接続します。ただし、Spark 構造化ストリーミングのライブラリを使用すると、Spark は複数のソースからのデータストリームのマイクロバッチを処理できます。

主な相違点: Kafka とSpark 構造化ストリーミング

Spark ストリーミングにより、Apache Spark は受信ストリームにマイクロバッチ処理アプローチを採用できます。その後、Spark 構造化ストリーミングによって強化されています。Spark 構造化ストリーミングは、DataFrame とデータセット API を使用してストリーム処理のパフォーマンスを向上させます。このアプローチにより、Spark は Apache Kafka のように継続的なデータフローを処理できますが、両方のプラットフォームにはいくつかの相違点があります。 

処理モデル

Kafka は、さまざまなアプリケーションやマイクロサービスを接続して継続的な処理を可能にする分散型ストリーミングプラットフォームです。その目的は、クライアントアプリケーションがソースからの情報を常にリアルタイムで受け取れるようにすることです。

Kafka とは異なり、Spark 構造化ストリーミングは Spark アーキテクチャに追加のイベントストリーミングサポートを提供する拡張機能です。これを使用して、リアルタイムのデータフローをキャプチャし、データを小さなバッチに変換し、Spark のデータ分析ライブラリと並列処理エンジンでバッチを処理できます。とはいえ、Spark ストリーミングは Kafka のリアルタイムデータインジェストの速度には及びません。 

データストレージ

Kafka は、プロデューサーが送信するメッセージをトピックと呼ばれるログファイルに保存します。ログファイルには、停電時に保存されたデータが影響を受けないようにするための永続的なストレージが必要です。通常、ログファイルはバックアップとして異なる物理サーバーに複製されます。

一方、Spark 構造化ストリーミングはデータストリームを RAM に保存して処理しますが、データが RAM の容量を超えると、ディスクをセカンダリストレージとして使用する可能性があります。Spark 構造化ストリーミングは Apache Hadoop 分散ファイルシステム (HDFS) とシームレスに統合されますが、Amazon Simple Storage Service (Amazon S3) を含む他のクラウドストレージとも連携します

API

Kafka を使用すると、デベロッパーは Kafka データストリームを公開、サブスクライブ、セットアップし、それらをさまざまな API で処理できます。これらの API は、Java、Python、Go、Swift、.NET など、さまざまなプログラミング言語をサポートしています。

一方、Spark 構造化ストリーミングの API は、さまざまなソースから取り込まれたライブ入力データのデータ変換に重点を置いています。Kafka とは異なり、Spark 構造化ストリーミング API は限られた言語で利用できます。デベロッパーは、Java、Python、Scala で Spark 構造化ストリーミングを使用してアプリケーションを構築できます。

使用場面の比較: Kafka とSpark

Kafka と Spark は、目的が異なる 2 つのデータ処理プラットフォームです。

Kafka では、スケーラブルな分散型メッセージブローカーアーキテクチャを使用して、複数のクライアントアプリがリアルタイムの情報を公開およびサブスクライブできます。一方、Spark では、アプリケーションが大量のデータをバッチで処理できます。

そのため、クラウド上のさまざまなアプリケーションやサービス間で、信頼性が高く、待ち時間が短く、スループットの高いメッセージングを実現するには、Kafka が適しています。一方、Spark を使用すると、組織は大量のデータ分析や機械学習のワークロードを実行できます。 

ユースケースは異なりますが、Kafka と Spark は相互に排他的ではありません。両方のデータ処理アーキテクチャを組み合わせて、耐障害性のあるリアルタイムのバッチ処理システムを構築できます。この設定では、Kafka は複数のソースから連続データを取り込み、その後 Spark の中央コーディネーターに渡します。次に、Spark はバッチ処理を必要とするデータをそれぞれのワーカーノードに割り当てます。

相違点の要約: Kafka とSpark

 

Kafka

Spark

ETL

ETL 関数には Kafka Connect API と Kafka Streams API が必要です。

ETL をネイティブにサポートします。

レイテンシー

超低レイテンシー。受信イベントごとに真のリアルタイムを提供します。 

低レイテンシー。RAM 上で読み取り/書き込み操作を実行します。

プログラミング言語

データ変換関数を実装するには追加のライブラリが必要です。 

データ変換と機械学習タスクのための Java、Python、Scala、R をサポートします。 

可用性 

異なるサーバーのデータパーティションをバックアップします。アクティブなパーティションに障害が発生したときに、リクエストをバックアップに直接送信します。 

複数のノードで永続データを保持します。ノードに障害が発生した場合に結果を再計算します。 

データソース

複数のデータソースを同時にサポートできます。

1 つのデータソースに接続します。複数のデータソースでストリーミングするには、Spark 構造化ストリーミングが必要です。

AWS は Kafka と Spark の要件にどのように役立ちますか?

Amazon Web Services (AWS) は、Apache Kafka と Apache Spark のどちらを使用している場合でも、マネージドデータインフラストラクチャのサポートを提供します。

Amazon Managed Streaming for Apache Kafka (Amazon MSK) を使用すると、Kafka クラスターを容易にデプロイ、実行、管理できます。以下の処理を自動的に実行できます。

  • Kafka クラスター全体の必要なすべてのリソースをプロビジョニング
  • Kafka クラスターを複数のアベイラビリティーゾーンに複製、分散
  • Kafka クラスターを Amazon Virtual Private Cloud (Amazon VPC) で実行し、ノード間のプライベート接続を提供

Amazon EMR を使用すると、Spark のビッグデータ、インタラクティブ分析、機械学習アプリケーションをサポートします。Amazon EMR を使用すると、以下を実行できます。

  • オンプレミスのデータ処理ソリューションの半分以上のコストを削減。
  • 変化する需要に対応するため、ビッグデータアプリケーションのコンピューティングリソースを自動的にプロビジョニング。
  • Spark を Amazon S3Amazon DynamoDBAmazon Redshift などの、さまざまなスケーラブルなクラウドストレージと統合。

今すぐアカウントを作成して、AWS で Spark と Kafka の使用を開始しましょう。

AWS での次のステップ

Kafka で構築を開始する

AWS で Kafka の使用を開始する方法の詳細

詳細 
Spark で構築を開始する

AWS で Spark の使用を開始する方法の詳細

詳細