confluent

    0热度

    1回答

    在Java中是否有使用Kafka rest api的生产者和消费者群体的良好示例。我不寻找生产者和消费者的简单消费者或卡夫卡客户端的例子。任何帮助被认可。

    0热度

    1回答

    我下面的步骤#7在此链接(使用卡夫卡连接导入/导出数据): http://kafka.apache.org/documentation.html#quickstart 这是工作顺利,直到我删除了“的test.txt”文件。主要是因为这是log4j文件的工作原理。经过一段时间后,该文件将旋转 - 我的意思是 - 它将被重命名为&具有相同名称的新文件将开始写入。 但之后,我删除了'test.txt',

    3热度

    2回答

    我有一个部署,我们正在使用kafka从服务发送消息。但是我们需要在所有地区都有卡夫卡大师。所以一旦消息被推送到1个数据中心,它应该在其他地方同步。当它再次在其他数据中心完成时,它应该同步回来。 Mirror Maker可以提供从1到其他的同步,但是如何实现双向同步?

    3热度

    1回答

    我正在尝试使用Kafka-Connect与HDFS接收器连接器来传输数据。独立模式和分布式模式都运行正常,但它只写入HDFS一次(基于刷新大小),而不是稍后流式传输。如果我错过了一些东西,请帮忙。 汇合2.0.0 &卡夫卡0.9.0

    2热度

    3回答

    我有Windows环境和我自己的一套kafka和zookeeper运行。要使用自定义对象,我开始使用Avro。但我需要让注册表启动。下载汇合的平台,并运行此: $ ./bin/schema-registry-start ./etc/schema-registry/schema-registry.properties /c/Confluent/confluent-3.0.0-2.11/conflu

    0热度

    1回答

    我有一台服务器,它具有Java 1.6。在那里,我需要使用Confluent的KafkaAvroDeserializer来反序列化avro消息。 的问题是: 如果我使用汇合-1.0(这是与Java> = 1.6兼容),则我无法反序列化,如卡夫卡阿夫罗串-1.0.jar不具有KafkaAvroDeserializer方法。它只有AbstractKafkaAvroDeserializer,我无法根据模

    0热度

    1回答

    我正在使用Confluent的Hadoop发行版,并尝试将来自Kafka(在另一台机器上)的消息汇集到HDFS。 HDFS方面的'所有者'是'hadoop'。 这个错误很常见,我试着设置HADOOP_USER_NAME = hadoop,但我仍然得到了与用户相同的引用'root'的错误。 kafka-connect-hdfs具有额外的auth参数,但它们看起来都是针对Kerberos的,这里没有涉