Syniti Data Replication(旧DBMoto)では、Apache Kafkaに対してのレプリケーションが追加されました。
膨大なデータ量を処理する必要があるビッグデータ解析や、毎秒IoTデバイスから転送されるデータを効率よく高速に処理したい、各種データソースからの変更をリアルタイムに別アプリケーションへ連携したい場合にApache Kafkaは最適なプラットフォームとなります。
Syniti Data Replicationを使用することで、数多くのデータベースに格納されているデータを、
Apache Kafkaに対してプログラミングすることなく、GUIからの設定のみで連携することが可能です。
ではまず、Apache Kafka接続の設定を見ていきましょう。
まず、データプロバイダとしてApache Kafkaを選択することで、自動的にデータプロバイダの読み込みが実行されます。
次に、接続ドライバの設定を行います。
必須項目としては、Apache Kafkaが構成されているサーバのIPアドレスまたはホスト名、
レプリケーションに必要な一時ファイルを出力するフォルダパス、連携先となるApache Kafkaのトピックを指定します。
正しく構成できている場合、接続テストは成功と返ってきます。
以上で、Apache KafkaをSyniti Data Replicationコンソールへ登録することができます。
それでは実際にデータの連携を紹介していきます。
今回は、AS/400に存在しているレコードをApache Kafkaへ連携していきます。
まずは、Apache Kafka側の状態ですが、接続設定で指定されたtestというトピックが存在していることが確認できます。
そして、実際に連携されるメッセージ(データ)を確認するため、Kafkaのコマンドを実行し待機します。
現在は、まだ何もデータが連携されていないことが確認できます。
そしてSynitiコンソールからtestトピックに対してレコード参照を行っても、まだ何もレコードは確認できません。
Synitiコンソールからレプリケーションジョブを作成し、実行することで、以下のようにApache Kafka側、Synitiコンソール側両方でデータが連携されていることがわかります。
このように、Synitiを使用することでデータベースに格納された分析したいデータを、簡単にApache Kafkaへ連携することができます。
●Apache Kafkaへのデータレプリケーション設定デモ動画
Oracle から Kafka Streamsへのリアルタイム・データレプリケーション紹介動画
関連したトピックス
- Syniti Data Replication: OracleからKafka StreamsへのCDC(Change Data Capture)方法
- Webセミナー録画 『多種DBからKafka、Hadoop、S3への対応 データ統合/分析基盤へ簡単連携!』2019/12/10 開催
- DBMotoの各種機能別の動画デモについてのリンクサイト情報(異種DB接続、ミラーリング、シンクロナイゼーション)
- レプリケーション対象テーブル構成変更後のSyniti Data Replication (旧DBMoto) マッピング対応について
- DBMoto (Syniti DR):クラウドDBとの連携設定動画集
- PostgreSQLからの差分連携(LSA)セットアップ手順【Syniti DR】
- DBMoto: Oracle関連設定動画集
- Syniti ReplicateによるRFCを使用したSAPシステムからのデータレプリケーション
- IBMi (AS/400) 関連のDBMoto設定動画集
- DBMotoからSyniti Data Replicationへのアップグレード方法