首页 文章

Kafka Consumer与Apache Flink合作

提问于
浏览
0

我做了一个poc,其中我使用spark streaming从Kafka读取数据 . 但我们的组织要么使用Apache Flink,要么使用Kafka使用者从Apache kafka读取数据作为标准流程 . 所以我需要用Kafka消费者或Apache Flink取代Kafka流媒体 . 在我的应用程序用例中,我需要从kafka读取数据,过滤json数据并在cassandra中放置字段,因此建议使用Kafka使用者而不是flink /其他流程,因为我不需要使用Kafka进行任何处理json数据 . 所以我需要你的帮助才能理解以下问题:

  • 使用Kafka消费者,我可以实现与火花流或flink一样的连续数据读取吗?

  • kafka消费者是否足够我考虑我需要从kafka读取数据,使用avro scehma反序列化,过滤字段并放入cassandra?

  • Kafka消费者应用程序可以使用kafka消费者API创建,对吗?

  • 如果我只使用Kafka消费者而不是Apache flink,我的情况是否有任何不足之处?

1 回答

  • 1

    首先,让我们看看Flinka Kafak ConnectorSpark Streaming with Kafka,它们都使用Kakfa Consumer API(简单的API或高级API)来消费来自Apache Kafka的消息来完成他们的工作 .

    那么,关于你的问题:

    1)是的

    2)是的 . 但是,如果你使用Spark,你可以考虑使用Spark Cassandra connector,这有助于我们有效地将数据保存到Cassandara

    3)对

    4)如上所述,Flink还使用Kafka消费者来完成其工作 . 此外,它是一个分布式流和批量数据处理,它帮助我们从Kafka消费后有效地处理数据 . 在您的情况下,要将数据保存到Cassandra,您可以考虑使用Flink Cassandra Connector而不是您的编码 .

相关问题