我有一个应用程序,其中多个用户可以指定Spark工作流程,然后发送到驱动程序并在集群上执行。Spark Streaming Multiple Streaming Jobs
现在应该扩展工作流程以支持流式数据源。一个可能的工作流程可能包括:
- 流的鸣叫与特定主题标签
- 变换每个鸣叫
- 窗口帧和可视化
这是工作在做分析,如果只有一个单一的流立即启动,但给出“”此JVM中只能启动一个StreamingContext。“错误。
我尝试了不同的已知方法,但没有一个为我工作(“spark.driver.allowMultipleContexts = true”,增加“spark.streaming.concurrentJobs”,尝试在不同池中运行每个流式上下文等。 )
任何人都可以告诉我关于使用Spark流并行流的最佳做法是什么? Thx提前!