我创建了一个带有3个分区和3个重复的Kafka主题

$KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 3 --topic test

并写了Kafka-Producer程序从API获取数据,它工作正常 . 我的数据成功存储在3个分区和3个复制中 .

现在我必须处理分区Kafka日志中的数据 . 我有一个Storm拓扑 . 我的拓扑如何接受日志中的数据作为输入 .

最初我创建了一个带有1个分区的主题,1个复制,我的风暴拓扑工作正常 . 但是当我将分区保持为3并且复制为3时,数据不会进入Storm-Topology . 如何解决它 .

我的拓扑代码

public static void main(String[] args) throws Exception{

            Map map = Maps.newHashMap();
            map.put("dataSourceClassName", "org.postgresql.ds.PGSimpleDataSource");
            map.put("dataSource.url","jdbc:postgresql://localhost:5432/test?user=postgres");

            ConnectionProvider cp = new MyConnectionProvider(map);

            String argument = args[0];
            Config conf = new Config();
            conf.put(JDBC_CONF, map);
            conf.setDebug(true);
            conf.put(Config.TOPOLOGY_MAX_SPOUT_PENDING, 3);
            //set the number of workers
            conf.setNumWorkers(3);

            TopologyBuilder builder = new TopologyBuilder();

           //Setup Kafka spout
            BrokerHosts hosts = new ZkHosts("localhost:2181");
            String topic = "test";
            String zkRoot = "";
            String consumerGroupId = "group1";
            SpoutConfig spoutConfig = new SpoutConfig(hosts, topic, zkRoot, consumerGroupId);
            spoutConfig.scheme = new RawMultiScheme();
            spoutConfig.scheme = new SchemeAsMultiScheme(new Search_Parser());
            KafkaSpout kafkaSpout = new KafkaSpout(spoutConfig);
            builder.setSpout("KafkaSpout", kafkaSpout);

Help Me on This Issue

提前致谢