3

我应该在集群镜像上工作,在这里我必须设置与现有HDFS集群相同的HDFS集群(相同的主节点和从节点)并将数据复制到新节点,然后运行与是。Falcon在Hadoop生态系统中的角色

我已经阅读了有关猎鹰作为一个饲料处理和工作流程协调工具,它也用于HDFS集群的镜像。有人能告诉我Falcon在Hadoop生态系统中的角色是什么,特别是它如何帮助镜像。我在此期待了解所有facon在Hadoop生态系统(HDP)中的作用。

+2

我发现这篇文章更好地解释了一个例子的过程和实现。它没有突出猎鹰的所有优点。 http://hortonworks.com/hadoop-tutorial/incremental-backup-data-hdp-azure-disaster-recovery-burst-capacity/ – Atom 2015-02-24 07:14:30

回答

2
  • Apache Falcon通过以下操作简化了数据动作的配置:replication;生命周期管理;血统和可追溯性。这提供了跨Hadoop组件的数据治理一致性。
  • Falcon复制与增量变化异步。通过运行一个进程并交换源和目标来完成恢复。
  • 数据丢失 - 如果主群集完全关闭,Delta数据可能会丢失
  • 备份可根据带宽和网络可用性在需要时进行调度。
+2

还有其他参数,但我强调了那些重要性很高的参数。 – Atom 2015-04-21 09:47:06

相关问题