大规模集群配置优化
节点配额和内核参数调整
对于公有云上的 Kubernetes 集群,规模大了之后很容器碰到配额问题,需要提前在云平台上增大配额。这些需要增大的配额包括
- 虚拟机个数
- vCPU 个数
- 内网 IP 地址个数
- 公网 IP 地址个数
- 安全组条数
- 路由表条数
- 持久化存储大小
参考gce随着node节点的增加master节点的配置:
- 1-5 nodes: n1-standard-1
- 6-10 nodes: n1-standard-2
- 11-100 nodes: n1-standard-4
- 101-250 nodes: n1-standard-8
- 251-500 nodes: n1-standard-16
- more than 500 nodes: n1-standard-32
参考阿里云配置:
节点规模 | master规格 |
---|---|
1-5个节点 | 4C8G(不建议2C4G) |
6-20个节点 | 4C16G |
21-100个节点 | 8C32G |
100-200个节点 | 16C64G |
增大内核选项配置 /etc/sysctl.conf:
1 | fs.file-max=1000000 |
参考资料:
关于conntrack的详细说明:https://testerhome.com/topics/7509
Etcd
- 搭建高可用的etcd集群, 集群规模增大时可以自动增加etcd节点
- 目前的解决方案是使用etcd operator来搭建etcd 集群,operator是CoreOS推出的旨在 简化复杂有状态应用管理的框架,它是一个感知应用状态的控制器,通过扩展Kubernetes API来自动创建、管理和配置应用实例。
- etcd operator 有如下特性:
- ceate/destroy: 自动部署和删除 etcd 集群,不需要人额外干预配置。
- resize:可以动态实现 etcd 集群的扩缩容。
- backup: 支持etcd集群的数据备份和恢复重建。
- upgrade: 可以实现在升级etcd集群时不中断服务。
- 配置etcd使用ssd固态盘存储
- 设置 –quota-backend-bytes 增大etcd的存储限制。默认值是 2G
- 需要配置单独的 Etcd 集群存储 kube-apiserver 的 event。
参考资料:
镜像拉取相关配置
Docker配置
- 设置 max-concurrent-downloads=10
- 配置docker daemon 并行拉取镜像,提高镜像拉取效率。
- 使用 SSD 存储。
- 预加载 pause 镜像,比如 docker image save -o /opt/preloaded_docker_images.tar 和 docker image load -i /opt/preloaded_docker_images.tar
- 启动pod时都会拉取pause镜像,为了减小拉取pause镜像网络带宽,可以每个node预加载pause镜像。
Kubelet配置
- 设置 –serialize-image-pulls=false 该选项配置串行拉取镜像,默认值时true,配置为false可以增加并发度。但是如果docker daemon 版本小于 1.9,且使用 aufs 存储则不能改动该选项。
- 设置 –image-pull-progress-deadline=30 配置镜像拉取超时。默认值时1分,对于大镜像拉取需要适量增大超时时间。
- Kubelet 单节点允许运行的最大 Pod 数:–max-pods=110(默认是 110,可以根据实际需要设置)
镜像registry p2p分发
- 使用 Dragonfly 文件分发系统来实现镜像的分布式p2p分发。减少 镜像仓库的负载。
参考资料:
kube-api-server 配置
node节点数量 >= 3000, 推荐设置如下配置:
- –max-requests-inflight=3000
- –max-mutating-requests-inflight=1000
node节点数量在 1000 – 3000, 推荐设置如下配置:
- –max-requests-inflight=1500
- –max-mutating-requests-inflight=500
内存配置选项和node数量的关系,单位是MB:
- –target-ram-mb=node_nums * 60
pod配置
在运行 Pod 的时候也需要注意遵循一些最佳实践,比如:
- 为容器设置资源请求和限制,尤其是一些基础插件服务
spec.containers[].resources.limits.cpu
spec.containers[].resources.limits.memory
spec.containers[].resources.requests.cpu
spec.containers[].resources.requests.memory
spec.containers[].resources.limits.ephemeral-storage
spec.containers[].resources.requests.ephemeral-storage
在k8s中,会根据pod的limit 和 requests的配置将pod划分为不同的qos类别:
- Guaranteed
- Burstable
- BestEffort
当机器可用资源不够时,kubelet会根据qos级别划分迁移驱逐pod。被驱逐的优先级:BestEffort > Burstable > Guaranteed- 对关键应用使用 nodeAffinity、podAffinity 和 podAntiAffinity 等保护,使其调度分散到不同的node上。比如kube-dns 配置:
- 尽量使用控制器来管理容器(如 Deployment、StatefulSet、DaemonSet、Job 等)
Kube-scheduler 配置
- 设置 –kube-api-qps=100
- 默认值是50
Kube-controller-manager 配置
- 设置 –kube-api-qps=100
- 默认值是20
- 设置 –kube-api-burst=100
- 默认值是30