我已经尝试过用这个来理解这个概念,但我仍然不清楚。垃圾检查点间隔在hadoop中如何工作?为什么checkpoint_intereval是必需的?
比方说 fs.trash.interval = 9分钟和 fs.trash.checkpoint.interval = 2分钟
现在,我在10:03在10:00和file2删除文件1。 它说它被移动到“/user/xxx/.trash/current”,并且当前目录在一段时间内消失了,我可以在那里看到检查点文件夹 ,它看起来像这样“/user/xxx/.trash/( date_somenumber)”。
根据我的理解,file1应该在10:09永久删除,在10:11永久删除。
如果检查点发生的每2分钟说
1日10:02
2日10:04
3日10:06
4日10:08
5日10:10
6日10:12
所以file1应该在第5次checkpoint_intereval和第6次间隔中的file2中被删除。
我的疑问是
1)没有当前目录中消失的时候?在checkpoint_intereval或任何时候提前?
(对我来说这看起来是一个分钟内消失)
2)为每个检查点间隔新的文件夹只有当新的文件被删除,其余的是抽象的形成?
(所以,它的意思是每2分钟检查点是抽象的对我们来说,它是不会改变每2分钟目录名),我们已经建立垃圾时间间隔与意向9MIN(例如)
3)在垃圾文件中保存9分钟,为什么我们需要checkpoint_interval来检查每2分钟(例如),当我们知道它会在9分钟后自动删除。
(是检查点删除文件的过程?因为当我们说checkpoint_intereval = 0还是默认它需要的价值和检测点在每9分钟间隔垃圾桶9分钟=)
请纠正我的理解,如果我澄清这些疑虑是错误的。