0

通过这里阅读一点(https://kubernetes.io/docs/admin/out-of-resource/),但没有结束清晰的理解;试着在这里收集更多有关实际发生的信息。kubernetes + GKE/status现在是:NodeHasDiskPressure

我们运行2 N1-STANDARD-2的情况下,一300Go磁盘连接

更具体地说, “nodefs.inodesFree” 问题似乎规定。而这一个是不清楚的。它似乎发生在构建期间(当图像创建时),我们是否应该理解它在磁盘上占用太多空间?最明显的原因是什么?

感觉它并不依赖于可以在节点上指定的CPU /内存请求/限制,但仍然像我们“过度提供”了限制一样,它是否可以对此问题产生影响?

感谢受影响的节点,请分享对这个

+0

这听起来像[DiskPressure崩溃节点]的可能重复(http://stackoverflow.com/questions/42576661/diskpressure-crashing-the-node/42722519) – pagid

回答

1

你可以运行df -i你的经验?

+0

您的意思是,'kubectl exec -it podname - - df -i'? – Ben

+0

否。节点本身是报告DiskPressure的主机。如果您不确定,只需在云控制台的所有节点上执行('kubectl get nodes') –

+0

ssh'ed,这里是输出https://gist.github.com/bbnnt/5cfd0f185c97a0e486e8db7f550dcf22。我有不到10个豆荚......你认为这可以超过那些300Go吗?简直无法相信 – Ben