高可用Kubernetes集群需跨节点部署控制平面组件并实现故障隔离与自动恢复:etcd至少3节点、Raft共识;kubeadm搭建时剥离etcd、配置VIP+负载均衡;独立加固etcd(分离wal/data、调优参数、定期快照);网络层用多主控感知CNI,存储层确保副本跨区与外部存储高可用。
要实现真正高可用,关键不在组件数量,而在故障隔离与自动恢复能力。控制平面必须跨节点部署etcd、kube-apiserver、kube-scheduler和kube-controller-manager,且所有API Server需通过负载均衡器对外暴露统一入口;etcd集群至少3节点(推荐奇数),数据同步采用Raft协议,避免单点写入瓶颈;Node节点不参与控制面选举,但需配置多路径健康检查与滚动重启策略。
kubeadm仍是生产环境主流选择,前提是跳过默认的单点etcd模式。操作分四步:先在三台机器上初始化第一个控制节点并生成join配置;再将etcd静态Pod清单改为外部集群模式,用kubeadm init phase etcd local --config指定外部etcd端点;接着在另两台机器上执行kubeadm join --control-plane --certificate-key,指向共享的etcd集群和VIP;最后部署nginx或haproxy作为API Server前端负载均衡器,监听6443端口并启用TLS透传。
将etcd从控制节点剥离是提升稳定性的关键一步。建议用systemd托管etcd服务,禁用swap,设置GOMAXPROCS=2,wal目录与data-dir必须分离在不同磁盘;开启自动碎片整理(--auto-compaction-retention=24h)和心跳超时调优(--heartbeat-interval=250 --election-timeout=2500);定期用etcdctl endpoint status校验成员状态,并配合Prometheus+Grafana监控leader变化、snapshot失败率和backend commit持续时间。
CNI插件需支持多主控感知,Calico推荐v3.24+并启用Typha组件分担API压力;Cilium则需开启kube-proxy-replacement=strict与host-reachable-services。存储方面,若用Longhorn,确保replica节点分布在不同可用区,且management URL指向负载均衡后的service;若对接外部存储如Ceph RBD,Secret中ceph.conf必须包含mon_host列表而非单点,同时配置rbdmap超时与重试参数。
S必须部署为Deployment+Headless Service,副本数≥3,并通过podAntiAffinity强制分散调度