是否可以从Spark流中将gzip压缩数据写入Kafka?是否有任何示例/示例说明如何在Spark流作业中从Kafka写入和读取压缩数据?如何在Spark Streaming中将压缩数据写入Kafka?
2
A
回答
2
是的,这是可能的。只需将compression.type
设置为gzip
即可。
查看here的完整示例。
// Zookeeper connection properties
val props = new HashMap[String, Object]()
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, brokers)
props.put(ProducerConfig.COMPRESSION_TYPE_CONFIG, "gzip")
// add other props as needed
val producer = new KafkaProducer[String, String](props)
1
您可以使用CLI或在server.properties文件中设置。
--compression-codec [压缩编解码器]压缩编解码器:'none','gzip','snappy'或'lz4'。如果没有指定值,则默认为'gzip'。 0是默认值。
https://cwiki.apache.org/confluence/display/KAFKA/Compression
相关问题
- 1. 从Spark Streaming将数据推送到Kafka
- 2. Spark Streaming Kafka java.lang.ClassNotFoundException:org.apache.kafka.common.serialization.StringDeserializer
- 3. Spark Streaming Kafka backpressure
- 4. 在Spark Streaming中的Kafka createDirectStream
- 5. Spark-Streaming Kafka Direct Streaming API&Parallelism
- 6. Spark + Kafka streaming NoClassDefFoundError kafka/serializer/StringDecoder
- 7. Spark Streaming + kafka“JobGenerator”java.lang.NoSuchMethodError
- 8. Spark Streaming - Kafka- createStream - RDD到数据帧
- 9. Spark Streaming - Java - 从Kafka插入JSON到Cassandra
- 10. Kafka Streaming + Spark Streaming +机器学习
- 11. Kafka Spark-Streaming偏移问题
- 12. java.lang.NoClassDefFoundError:org/apache/spark/streaming/kafka/KafkaUtils
- 13. 在Spark Streaming中重用kafka制作者
- 14. spark-streaming-kafka-0-10:如何限制Spark分区的数量
- 15. 如何从Spark Streaming脚本写入HDFS
- 16. 将Spark Streaming输出写入套接字
- 17. Spark Streaming + Kafka:如何从kafka消息检查主题名称
- 18. 使用Snappy压缩以ORC格式写入Spark数据帧
- 19. Pyspark Kafka Streaming
- 20. 如何将二进制数据写入压缩文件
- 21. 在Python中将数据写入zip压缩文件
- 22. Kafka Streaming Concurrency?
- 23. 是否支持spark-streaming-kafka-0-10 lib?
- 24. 由于InvalidClassException,Spark Kafka Streaming作业失败
- 25. Spark Streaming Kafka初始偏移量
- 26. apache spark streaming - kafka - 阅读旧信息
- 27. 从kafka-Spark-Streaming读取数据时获得空集
- 28. Kafka - Spark Streaming - 仅从一个分区读取数据
- 29. 如何使用docker在Mac上设置kafka和spark-streaming?
- 30. 将numpy.bool数组写入压缩文件?
感谢您的指针。 – vijay