我已经安装了spark和cassandra集群,并且在我的火花作业中使用了cassandra连接器。现在运行我的工作,我使用spark.cassandra.connection.host并在一个数据中心中传递种子节点的一个IP地址。我正在浏览连接器网站,其状态如火花cassandra连接器中的多个接触点
"The initial contact node given in spark.cassandra.connection.host can be any node of the cluster. The driver will fetch the cluster topology from the contact node and will always try to connect to the closest node in the same data center. If possible, connections are established to the same node the task is running on."
我的查询是如果联系节点关闭会发生什么情况。 Spark将无法获得集群拓扑,因此无法工作。 我还用cassandra的nodejs连接器,在那里我们提供了一个接触点阵列。是否有可能在火花卡桑德拉连接器
是的,但我的问题仍未得到解答。那么如果Spark所连接的节点关闭并且尚未发现拓扑,我认为它将无法连接和检索数据,如果发生什么情况 – Nipun
从我理解的情况来看...... spark没有连接到特定的节点,它连接到主机,然后选择一个节点。如果您的主机停机,那么您的应用将失败。如果主机上的所有节点都关闭,则应用程序将失败。所以是的,如果你的主机关闭了,那么它将无法检索数据。 – dannypaz
主机和节点有什么区别?按照文档“spark.cassandra.connection.host中给出的初始接触节点可以是任何节点” – Nipun