2016-04-10 31 views
0

我目前有一个群集运行在我用3个节点创建的GCloud上。 这是我所得到的,当我运行kubectl describe nodesKubernetes - 什么是kube系统吊舱,可以安全删除它们吗?

Name:   node1 
Capacity: 
cpu:  1 
memory: 3800808Ki 
pods:  40 
Non-terminated Pods:  (3 in total) 
Namespace   Name         CPU Requests CPU Limits Memory Requests Memory Limits 
─────────   ────         ──────────── ────────── ─────────────── ───────────── 
default   my-pod1         100m (10%) 0 (0%)  0 (0%)  0 (0%) 
default   my-pod2        100m (10%) 0 (0%)  0 (0%)  0 (0%) 
kube-system   fluentd-cloud-logging-gke-little-people-e39a45a8-node-75fn  100m (10%) 100m (10%) 200Mi (5%) 200Mi (5%) 
Allocated resources: 
(Total limits may be over 100%, i.e., overcommitted. More info: http://releases.k8s.io/HEAD/docs/user-guide/compute-resources.md) 
CPU Requests CPU Limits Memory Requests Memory Limits 
──────────── ────────── ─────────────── ───────────── 
300m (30%) 100m (10%) 200Mi (5%) 200Mi (5%) 

Name:   node2 
Capacity: 
cpu:  1 
memory: 3800808Ki 
pods:  40 
Non-terminated Pods:  (4 in total) 
Namespace   Name         CPU Requests CPU Limits Memory Requests Memory Limits 
─────────   ────         ──────────── ────────── ─────────────── ───────────── 
default   my-pod3        100m (10%) 0 (0%)  0 (0%)  0 (0%) 
kube-system   fluentd-cloud-logging-gke-little-people-e39a45a8-node-wcle  100m (10%) 100m (10%) 200Mi (5%) 200Mi (5%) 
kube-system   heapster-v11-yi2nw       100m (10%) 100m (10%) 236Mi (6%) 236Mi (6%) 
kube-system   kube-ui-v4-5nh36       100m (10%) 100m (10%) 50Mi (1%) 50Mi (1%) 
Allocated resources: 
(Total limits may be over 100%, i.e., overcommitted. More info: http://releases.k8s.io/HEAD/docs/user-guide/compute-resources.md) 
CPU Requests CPU Limits Memory Requests Memory Limits 
──────────── ────────── ─────────────── ───────────── 
400m (40%) 300m (30%) 486Mi (13%) 486Mi (13%) 

Name:   node3 
Capacity: 
cpu:  1 
memory: 3800808Ki 
pods:  40 
Non-terminated Pods:  (3 in total) 
Namespace   Name         CPU Requests CPU Limits Memory Requests Memory Limits 
─────────   ────         ──────────── ────────── ─────────────── ───────────── 
kube-system   fluentd-cloud-logging-gke-little-people-e39a45a8-node-xhdy  100m (10%) 100m (10%) 200Mi (5%) 200Mi (5%) 
kube-system   kube-dns-v9-bo86j       310m (31%) 310m (31%) 170Mi (4%) 170Mi (4%) 
kube-system   l7-lb-controller-v0.5.2-ae0t2      110m (11%) 110m (11%) 70Mi (1%) 120Mi (3%) 
Allocated resources: 
(Total limits may be over 100%, i.e., overcommitted. More info: http://releases.k8s.io/HEAD/docs/user-guide/compute-resources.md) 
CPU Requests CPU Limits Memory Requests Memory Limits 
──────────── ────────── ─────────────── ───────────── 
520m (52%) 520m (52%) 440Mi (11%) 490Mi (13%) 

现在,你可以看到,我有3个吊舱,2节点1和1个节点2上。我想要做的是移动node1上的所有窗格并删除其他两个节点。但是,似乎有一些Pod属于kube-system命名空间,我不知道删除它们可能会产生什么效果。

我可以告诉大家,名为fluentd-cloud-logging...heapster..豆荚用于记录和计算机资源的用法,但我真的不知道,如果我能kube-dns-v9-bo86jl7-lb-controller-v0.5.2-ae0t2移动荚到另一个节点没有影响。

任何人都可以帮助一些见解,我应该如何继续?

非常感谢。

回答

1

如果您想缩小集群的大小,只需删除三个节点中的两个,然后让系统重新安排在删除节点时丢失的任何豆荚。如果剩余节点上没有足够的空间,您可能会看到吊舱永久挂起。将kube-system挂接挂起并不理想,因为它们中的每一个都为您的集群执行“系统功能”(例如DNS,监视等),如果没有它们运行您的集群将无法正常运行。

如果您不需要使用gcloud container clusters update命令的功能,则也可以禁用某些系统窗格。

2

杀死它们以便它们重新安排在另一个节点上是非常好的。它们都可以重新安排,除了流畅的豆荚,它们绑定到每个节点。

+0

谢谢你的回答,Alex。我有两个问题:1)你有任何链接到某种类型的文件,这解释了每个这些豆荚是什么?在继续并删除它们之前,我想尝试并理解所有内容。 2)另外,当我杀死一个pod时,我如何确保它在我想要的节点上重新创建?再次感谢。 – AdelaN

+2

1)您可以查看[独立附件的[自述文件]](https://github.com/kubernetes/kubernetes/tree/dae5ac482861382e18b1e7b2943b1b7f333c6a2a/cluster/addons)。 2)在杀死豆荚之前,可以将其他两个节点标记为“不可调度的”,并在所有豆荚调度后重置“不可调度”。有关将ndoe设置为不可调整的内容,请参阅https://github.com/kubernetes/kubernetes/blob/c6e995a824094a96f7d43a25e897283f83a12997/docs/user-guide/kubectl/kubectl_patch.md#examples –

+1

@ Yu-JuHong,这太棒了!非常感谢,这对我帮助很大! – AdelaN

相关问题