Kubernetes(K8S)集群部署搭建图文教程(最全)

标签: | 发表时间:2021-07-17 14:04 | 作者:
出处:https://www.cnblogs.com

Kubernetes 集群安装

 

前期准备

第一步:Router软路由构建
第二步:centos7安装 5台(自行安装)
链接: https://pan.baidu.com/s/1WIMdpo1TPYLwwLiu6Bk5-w
提取码:p7go
复制这段内容后打开百度网盘手机App,操作更方便哦
在这里插入图片描述

      1、安装k8s的节点必须是大于1核心的CPU
2、安装节点的网络信息        
      master
BOOTPROTO=static
IPADDR=10.0.100.10
NETMASK=255.255.255.0
GATEWAY=10.0.100.8#指定到koolshare的软路由上

node1
BOOTPROTO=static
IPADDR=10.0.100.11
NETMASK=255.255.255.0
GATEWAY=10.0.100.8

node2
BOOTPROTO=static
IPADDR=10.0.100.12
NETMASK=255.255.255.0
GATEWAY=10.0.100.8
      3、koolshare 软路由的默认面是koolshare

集群安装

系统初始化

设置系统主机名以及Host文件

      hostnamectl set-hostname k8s-master01
hostnamectl set-hostname k8s-node01
hostnamectl set-hostname k8s-node02

安装依赖包

      wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
yuminstall -y conntrack ntpdate ntp ipvsadm ipset jq iptablescurl sysstat libseccompwget vim net-toolsgit

设置防火墙为Iptables并设置空规则

      systemctl stop firewalld&& systemctl disable firewalld
yum -yinstall iptables-services&& systemctl start iptables&& systemctlenable iptables&& iptables -F&&service iptables save

关闭SELINUX
因为K8s安装的时候会去检测swap分区有无关闭,如果开启了话可能会把pod放在虚拟内存运行,大大降低工作效率。(也可以通过–ingress排除)

      swapoff -a&&sed -i'/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
setenforce 0&&sed -i's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config

调整内核参数,对于K8s

      必备三调参数:开启bridge网桥模式,关闭ipv6协议cat> kubernetes.conf<<EOF
net.bridge.bridge-nf-call-iptables=1
net.bridge.bridge-nf-call-ip6tables=1
net.ipv4.ip_forward=1
net.ipv4.tcp_tw_recycle=0
vm.swappiness=0 # 禁止使用swap空间,只有当系统OOM时才允许使用它
vm.overcommit_memory=1 # 不检查物理内存是否够用
vm.panic_on_oom=0 # 开启OOM
fs.inotify.max_user_instances=8192
fs.inotify.max_user_watches=1048576
fs.file-max=52706963
fs.nr_open=52706963
net.ipv6.conf.all.disable_ipv6=1
net.netfilter.nf_conntrack_max=2310720
EOFcp kubernetes.conf /etc/sysctl.d/kubernetes.conf
sysctl -p /etc/sysctl.d/kubernetes.conf

报错1:显示/proc/sys/net/bridge/bridge-nf-call-iptables:没有这个文件或者目录

      modprobe br_netfilter

报错2:显示sysctl: cannot stat /proc/sys/net/netfilter/nf_conntrack_max: 没有那个文件或目录

      modprobe ip_conntrack

调整系统时区

      # 设置系统时区为 中国/上海
timedatectl set-timezone Asia/Shanghai# 将当前的UTC时间写入硬件时钟
timedatectl set-local-rtc 0# 重启依赖于系统时间的服务
systemctl restart rsyslog
systemctl restart crond

关闭系统不需要的服务

      systemctl stop postfix&& systemctl disable postfix

设置rsyslogd和systemd journald
让journald控制转发

      mkdir /var/log/journal# 持久化保存日志的目录mkdir /etc/systemd/journald.conf.d# 配置文件存放目录# 创建配置文件cat> /etc/systemd/journald.conf.d/99-prophet.conf<<EOF
[Journal]
# 持久化保存到磁盘
Storage=persistent

# 压缩历史日志
Compress=yes

SyncIntervalSec=5m
RateLimitInterval=30s
RateLimitBurst=1000

# 最大占用空间 10G
SystemMaxUse=10G

# 单日志文件最大 200M
SystemMaxFileSize=200M

# 日志保存时间2周
MaxRetentionSec=2week

# 不将日志转发到 syslog
ForwardToSyslog=no
EOF
systemctl restart systemd-journald

修改系统内核为4.44

      CentOS 7.x系统自带的3.10x内核存在一些Bugs,导致运行的Docker、Kubernetes不稳定。
rpm -Uvh http://mirror.ventraip.net.au/elrepo/elrepo/el7/x86_64/RPMS/elrepo-release-7.0-4.el7.elrepo.noarch.rpm# 安装完成后检查 /boot/grub2/grub.cfg 中对应内核 menuentry 中是否包含 initrd16 配置,如果没有,再安装一次
yum --enablerepo=elrepo-kernelinstall -y kernel-lt# 设置开机从新内核启动
grub2-set-default"CentOS Linux (4.4.182-1.el7.elrepo.x86_64) 7 (Core)"


检测:[root@k8s-master01 ~]# uname -r
4.4.237-1.el7.elrepo.x86_64        

修改DNS

      vim /etc/hosts
10.0.100.10 k8s-master01
10.0.100.11 k8s-node01
10.0.100.12 k8s-node02scp /etc/hosts root@k8s-node01:/etc/hostsscp /etc/hosts root@k8s-node02:/etc/hosts

kube-proxy开启ipvs的前置条件
kube-proxy主要解决 pod的调度方式,开启这个条件可以增加访问效率

      modprobe br_netfiltercat> /etc/sysconfig/modules/ipvs.modules<<EOF
#! /bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOFchmod 755 /etc/sysconfig/modules/ipvs.modules&&bash
/etc/sysconfig/modules/ipvs.modules&& lsmod|grep -e ip_vs -e nf_contrack_ipv4

安装Docker软件

      yuminstall -y yum-utils device-mapper-persistent-data lvm2

yum-config-manager \
 --add-repo \
 http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

yum update -y&& yuminstall -y docker-ce## 创建/etc/docker目录mkdir /etc/docker# 配置daemoncat> /etc/docker/daemon.json<<EOF
{
	"exec-opts":["native.cgroupdriver=systemd"],
	"log-driver":"json-file",
	"log-opts":{
		"max-size":"100m"
	}
}
EOF# 创建存放docker的配置文件mkdir -p /etc/systemd/system/docker.service.d# 重启docker服务
systemctl daemon-reload&& systemctl restart docker&& systemctlenable docker

安装Kubeadm(主从配置)
让kubeadm去引导成为k8s

      cat<<EOF>/etc/yum.repos.d/kubernetes.repo[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

yum -yinstall kubeadm-1.15.1 kubectl-1.15.1 kubelet-1.15.1# kubelet是与容器接口进行交互,而k8s通过kubeadm安装以后都是以Pod方式存在,底层是以容器的方式运行。所以一定要开机自启,不然的话启动不了k8s集群
systemctlenable kubelet.service

初始化主节点
kubeadm在初始化k8s集群的时候,会从gce云服务器pull一些所需要的镜像,并且这个镜像是非常大的,而且速度比较慢。

如果有xxr,可通过软路由配置让K8s集群机器
没有xxr,直接拉入Kubeadm-basic.images.tar.gz,拉到k8s集群中,导入即可

vim load-images.sh,因为要导入的镜像太多,直接用脚本。

      #!/bin/bash# 默认会解压到/root/kubeadm-basic.imageswe文件下tar -zxvf /root/kubeadm-basic.images.tar.gzls /root/kubeadm-basic.images> /tmp/image-list.txtcd /root/kubeadm-basic.imagesfor iin$(cat /tmp/image-list.txt)do
	docker load -i$idonerm -rf /tmp/image-list.txt

接着

      # 显示默认init初始化文件打印到 yaml文件中。从而得到默认的初始化模板
kubeadm config print init-defaults> kubeadm-config.yaml

vim kubeadm-config.yaml
修改为(默认的调度方式是ipvs):
advertiseAddress: 10.0.100.10
kubernetesVersion: v1.15.1
添加覆盖: 
networking:
  dnsDomain: cluster.local
  podSubnet:"10.244.0.0/16"
  serviceSubnet: 10.96.0.0/12
scheduler:{}
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
featureGates:
  SupportIPVSProxyMode:true
mode: ipvs

然后
kubeadm init --config=kubeadm-config.yaml|tee kubeadm-init.log

在这里插入图片描述
在这里插入图片描述

安装完成后,还需要进行如下设置

      在当前家目录下创建.kube文件,这里会保存连接配置
kubectl和kubeapi交互,采取HTTPS协议,所以需要些缓存和认证文件都会保存到.kube文件
然后拷贝管理配置文件到.kube目录下mkdir -p$HOME/.kubesudocp -i /etc/kubernetes/admin.conf$HOME/.kube/configsudochown$(id -u):$(id -g)$HOME/.kube/config

查看当前有哪些节点,kubectl get node
在这里插入图片描述

为什么是NotReady状态,因为k8s要求有一个扁平化网络存在,还没构建Flannel网络插件,所以还是NotReady

部署网络

      kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
      [root@k8s-master01 ~]# mkdir install-k8smv kubeadm-init.log kubeadm-config.yaml install-k8s/cd install-k8s/mkdir coremv * core/mkdir plugincd pluginmkdir flannelcd flannel/wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

kubectl create -f kube-flannel.yml

查看组件运行,发现flannel已经在运行
kubectl get pod -n kube-system

发现已经ready了
kubectl get node

原理:kubectl是命令行管理工具,get获取pod状态,-n是指定名称空间为kube-system。因为所有的系统组件都被安装在kube-system
如果不加-n指定,默认是default

在这里插入图片描述

加入主节点以及其余工作节点

在其余工作节点 执行主节点的安装日志中的加入命令即可(语句在安装的结尾处)
kubeadm join 10.0.100.10:6443 --token abcdef.0123456789abcdef
–discovery-token-ca-cert-hash sha256:fc19a598cb245d740ed58ca964a7e7e646dd19c773756f86224a966eecb6038e
在这里插入图片描述

kubectl get node 查看
在这里插入图片描述

Harbor采取私有的仓库去镜像使用

Centos7系统,然后安装Docker,跟上面安装docker一样
安装docker

      yuminstall -y yum-utils device-mapper-persistent-data lvm2

yum-config-manager \
 --add-repo \
 http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

yum update -y&& yuminstall -y docker-ce## 创建/etc/docker目录mkdir /etc/docker# 配置daemoncat> /etc/docker/daemon.json<<EOF
{
	"exec-opts":["native.cgroupdriver=systemd"],
	"log-driver":"json-file",
	"log-opts":{
		"max-size":"100m"
	}
}
EOF# 创建存放docker的配置文件mkdir -p /etc/systemd/system/docker.service.d# 重启docker服务
systemctl daemon-reload&& systemctl restart docker&& systemctlenable docker

vim /etc/docker/daemon.json

      为了让k8s集群信任这个自己制作的证书
每个节点,包括harbor都需要加这么一句话"insecure-registries":["https://hub.atguigu.com"]

systemctl restart docker
在这里插入图片描述

docker-compose
在 Linux 上的也安装十分简单,从 官方 GitHub Release [https://github.com/docker/compose/releases] 处直接下载编译好的二进制文件即可。

例如,在 Linux 64 位系统上直接下载对应的二进制包。

      $ sudo curl-L https://github.com/docker/compose/releases/download/1.17.1/docker-compose-`uname-s`-`uname-m`>/usr/local/bin/docker-compose
$ sudo chmod+x/usr/local/bin/docker-compose

国内源安装

      curl-L https://get.daocloud.io/docker/compose/releases/download/1.24.0/docker-compose-`uname-s`-`uname-m`>/usr/local/bin/docker-compose
chmod+x/usr/local/bin/docker-compose

在这里插入图片描述

拉入docker-compose到harbor

      链接:https://pan.baidu.com/s/1cE-1DWb_2JbOunOtS_J4-g 
提取码:rswrmv docker-compose /usr/local/bin/chmod a+x /usr/local/bin/docker-compose

拉入harbor安装包

      tar -zxvf harbor-offline-installer-v1.2.0.tgzmv harbor /usr/local/cd /usr/local/harbor/
vim harbor.cfg
修改:hostname= hub.atguigu.com
ui_url_protocol= https

创建https证书以及配置相关目录

      创建https证书的目录,在harbor.cfg对应mkdir -p /data/certcd /data/cert# 创建私钥密码
openssl genrsa -des3 -out server.key 2048# ssl请求# 国家名 CN# 省 GD# 组织 atguigu# 域名 hub.atguigu.com# Common Name (eg, your name or your server's hostname) []:hub.atguigu.com
openssl req -new -key server.key -out server.csr# 备份私钥cp server.key server.key.org# 转换成证书,让私钥的密码退掉,因为docker启动时私钥的证书有密码,会启动不成功
openssl rsa -in server.key.org -out server.key# 证书签名
openssl x509 -req -days 365 -in server.csr -signkey server.key -out server.crt# 证书赋予权限chmod -R 777 /data/cert

在这里插入图片描述

运行install脚本

      每个节点echo"10.0.100.13 hub.atguigu.com">> /etc/hosts

harbor目录下 ./install.sh

在这里插入图片描述

(1)联网问题,修改主机名为 hub.atguigu.com

      ERROR:for harbor-ui  UnixHTTPConnectionPool(host='localhost', port=None): Read timed out.(read timeout=70)

ERROR:for ui  UnixHTTPConnectionPool(host='localhost', port=None): Read timed out.(read timeout=70)
ERROR: An HTTP request took too long to complete. Retry with --verbose to obtain debug information.
If you encounter this issue regularly because of slow network conditions, consider setting COMPOSE_HTTP_TIMEOUT to a higher value(current value: 60).

解决:hostnamectl set-hostname hub.atguigu.com
直接把之前的容器和镜像都删除干净,重新执行install.sh

(2)has active endpoints

      ERROR: errorwhile removing network: network harbor_harborid 91ec97d7a1f661e4d687b7d69c3060144de77df113f0205590f07fb39843f44b has active endpoints

解决

      docker network inspect harbor_harbor
//断开网络,这里有两个Name参数 ,分别是上面标记的参数一和参数二
docker network disconnect -f harbor_harbor harbor-ui
//然后执行
docker-compose up -d

再次执行install.sh

(3)Timed out

      ERROR:for jobservice  UnixHTTPConnectionPool(host='localhost', port=None): Read timed out.(read timeout=60)
ERROR: An HTTP request took too long to complete. Retry with --verbose to obtain debug information.
If you encounter this issue regularly because of slow network conditions, consider setting COMPOSE_HTTP_TIMEOUT to a higher value(current value: 60).

解决

      解决思路:把 COMPOSE_HTTP_TIMEOUT 的值调大,并转为环境变量即可。

解决步骤:
先进入/etc/profile配置文件,执行命令:vi /etc/profile
然后在尾部添加上下面代码:export COMPOSE_HTTP_TIMEOUT=500export DOCKER_CLIENT_TIMEOUT=500
接着使/etc/profile配置文件生效,执行命令:source /etc/profile
最后重新执行命令 docker-compose up 即可。

(4)容器重新建

      ERROR:for 30a708d1ccb1_harbor-ui  b'You cannot remove a running container 30a708d1ccb166cb63885c4aa66e73a4b1c0e5b815185d990eb5190e16463da7. Stop the container before attempting removal or force remove'

ERROR:for ui  b'You cannot remove a running container 30a708d1ccb166cb63885c4aa66e73a4b1c0e5b815185d990eb5190e16463da7. Stop the container before attempting removal or force remove'
ERROR: Encountered errorswhile bringing up the project.

解决

      删除不掉容器文件占用,其实是网络问题。
解决办法如下
1、docker stop 容器ID\容器名   先暂停
2、docker network disconnect --force bridge 容器ID\容器名   清除网络
3、dockerrm -f 容器ID\容器名  再强制删除

最终成功,各种报错,一步步终于好了!!!
在这里插入图片描述

在这里插入图片描述

W10真实主机
C:\Windows\System32\drivers\etc\hosts
10.0.100.13 hub.atguigu.com
浏览器访问  hub.atguigu.com

在/usr/local/harbor/harbor.cfg文件中
默认用户名 admin
默认密码 Harbor12345
在这里插入图片描述

集群检测

检测k8s是否能利用到harbor仓库,那在k8s利用之前,docker要能先利用到

1、node01上检测docker
出现报错可能是因为json格式
检查 /etc/docker/daemon.json是不是如下格式

      {"exec-opts":["native.cgroupdriver=systemd"],"log-driver":"json-file","log-opts":{"max-size":"100m"},"insecure-registries":["https://hub.atguigu.com"]}

然后重启一下docker:
systemctl daemon-reload 
systemctl restart docker
      docker login https://hub.atguigu.com
docker pull wangyanglinux/myapp:v1  在公共docker hub拉取

重新打标签,因为推送镜像必须要命名成hub.atguigu.com
docker tag wangyanglinux/myapp:v1 hub.atguigu.com/library/myapp:v1
docker push hub.atguigu.com/library/myapp:v1

刷新查看镜像情况
docker images

然后删除镜像,为了后面验证k8s集群是否可下载
docker rmi -f hub.atguigu.com/library/myapp:v1
docker rmi -f wangyanglinux/myapp:v1

重新打标签,因为推送镜像必须要命名成hub.atguigu.com
在这里插入图片描述
完整过程
在这里插入图片描述

2、测试k8s集群是否可用,与镜像仓库连接情况
在k8s启动pod看是否OK
在这里插入图片描述

k8s-master01执行:

      暴露端口80和docker的80是不一样的,不写也可以访问的,因为是扁平化网络
kubectl run nginx-deployment --image=hub.atguigu.com/library/myapp:v1 --port=80 --replicas=1
kubectl get deployment
kubectl get rs
kubectl get pod
kubectl get pod -o wide

在这里插入图片描述

然后到node01查看是否有nginx的
docker ps -a | grep nginx
只要运行一个pod就会有pause
在这里插入图片描述

如果master想访问node01的话,直接curl IP,因为是扁平化网络
curl 10.244.2.2
curl 10.244.2.2/hostname.html 获取pod名称
在这里插入图片描述
这样一来私有仓库连接成功。减轻外网网络资源压力

3、harbor仓库查看,镜像下载次数1
在这里插入图片描述

集群功能演示

kubectl get pod 获取pod
kubectl delete pod Name 删除pod
kubectl get pod 获取pod,发觉又多了一个,和之前名字不一样
在这里插入图片描述

因为在之前kubectl run的时候已经指明了副本replicas=1,会保持为1

 
如果有一天压力过大,可不可以扩容?
kubectl get pod
kubectl scale --replicas=3 deployment/nginx-deployment
kubectl get pod
kubectl get pod -o wide
在这里插入图片描述
在这里插入图片描述

 
nginx负载访问,通过SVC
kubectl expose --help
kubectl expose deployment nginx-deployment --port=30000 --target-port=80
访问服务端的30000端口, 访问的是容器的80端口

kubectl get svc
在这里插入图片描述

curl访问测试,是一个轮询的机制
在这里插入图片描述

ipvsadm -Ln | grep 10.105.236.174
在这里插入图片描述

kubectl get pod -pod -o wide
在这里插入图片描述
发现SVC机制就是调度LVS模块实现负载均衡,这个是内部地址。

如果外部想访问怎么办?修改类型
kubectl get svc
kubectl edit svc nginx-deployment
type: NodePort
在这里插入图片描述
kubectl get svc
在这里插入图片描述

netstat -anpt | grep 30000
netstat -anpt | grep 32651
在所有的节点都暴露这么一个端口,然后浏览器直接访问32651端口即可
在这里插入图片描述

10.0.100.10:32651
10.0.100.11:32651
10.0.100.12:32651
这样一来,改成NodePort类型,就可以在web访问到k8s内部的服务。

在这里插入图片描述

终于大功告成!!!!!!!!!!

 

转载于:https://blog.csdn.net/qq_39578545/article/details/108861006

相关 [kubernetes k8s 集群] 推荐:

Kubernetes(K8S)集群部署搭建图文教程(最全)

- -
Kubernetes 集群安装. Harbor采取私有的仓库去镜像使用. 第一步:Router软路由构建. 第二步:centos7安装 5台(自行安装). 复制这段内容后打开百度网盘手机App,操作更方便哦. 1、安装k8s的节点必须是大于1核心的CPU 2、安装节点的网络信息. 3、koolshare 软路由的默认面是koolshare.

用虚拟机搭建Kubernetes集群_The_shy等风来的博客-CSDN博客_虚拟机搭建k8s集群

- -
一、Docker到底做了什么:. 一个轻量级的,在宿主机(比如你的云服务器centos或ubuntu虚机)基础上建立的一个隔离的主机环境,我们把这个隔离的虚拟主机环境叫容器. 跟传统的虚拟机相比,docker最大的区别就是它复用了外部物理宿主机内核,所以很轻量. docker主要解决了开发与部署时的环境冲突问题以及部署项目的成本问题:.

Kubernetes 集群日志基础

- - Linux 中国◆开源社区
探索 Kubernetes 中不同容器日志记录模式的工作原理. 服务器和应用程序日志记录是开发人员、运维人员和安全团队了解应用程序在其生产环境中运行状态的重要工具. 日志记录使运维人员能够确定应用程序和所需组件是否运行平稳,并检测是否发生了异常情况,以便他们能够对这种情况做出反应. 对于开发人员,日志记录提供了在开发期间和之后对代码进行故障排除的可见性.

k8s docker集群搭建 - CSDN博客

- -
一、Kubernetes系列之介绍篇.     - 一次构建,到处运行. 2.什么是kubernetes.   首先,他是一个全新的基于容器技术的分布式架构领先方案. Kubernetes(k8s)是Google开源的容器集群管理系统(谷歌内部:Borg). 在Docker技术的基础上,为容器化的应用提供部署运行、资源调度、服务发现和动态伸缩等一系列完整功能,提高了大规模容器集群管理的便捷性.

使用Prometheus、Thanos监控Kubernetes集群

- - DockOne.io
当你阅读这篇文章的时候,我相信你一定已经说服了你的经理,或者是公司CTO,选择容器和Kubernetes作为微服务治理平台,去转型升级你们公司的软件产品. 你非常非常的happy,一切都貌似按照计划进行,你创建了你的第一个Kubernetes集群(三大主流云服务提供商,微软云Azure,亚马逊云AWS和谷歌云GCP都提供了非常方便的方式部署Kubernetes平台),你开发了你的第一个容器化应用,然后把它部署到了你的Kubernetes集群上.

Ubuntu 20.04 部署kubernetes 1.22 集群

- - 鹿先森
由于众所周知的原因(F**K 红X),CentOS8的生命周期就快结束了,系统要转入Ubuntu的怀抱了,不过还好所有的应用都扔到kubernetes上了,迁移的难度大大降低. 近期在做Ubuntu的测试,正好把在ubuntu 20.04 LTS 上部署最新的kubernetes记录下来. 系统:ubuntu 20.04 LTS.

Kubernetes - 集群内容器访问集群外服务

- - 掘金后端
GitHub地址: github.com/QingyaFan/c…. 企业内部一般存在很多的微服务,在逐步容器化的过程中,会有部分服务在集群外部,未完成容器化,比如数据库,而部分已经完成容器化的依赖于这些服务的服务,过渡过程中,需要集群内部的容器访问集群外部的服务. 为了在容器化过程中,让服务不中断,就需要让Kubernetes集群内部的容器能访问集群外部的服务,怎么做到呢,在每个应用的配置文件中使用外部IP或者外部rds名字吗.

构建生产就绪的K8S集群的16点清单

- - SegmentFault 最新的文章
Kubernetes是用于构建高度可扩展系统的强大工具. 结果,许多公司已经开始或正在计划使用它来协调生产服务. 不幸的是,像大多数强大的技术一样,Kubernetes也很复杂. 我们整理了以下清单,以帮助你生产环境最佳实践Kubernetes. Kubernetes提供了一种编排容器化服务的方法,因此,如果您没有按顺序实践你的容器,那么集群一开始就不会处于良好状态.

基于 Ubuntu 20.04 部署 1.23版K8S 集群

- - 明哥教程
从今天开始,我将开始连载《图解 K8S》入门系列文章. 更多系列文章,可以微信搜索公众号: 写点代码的明哥,回复 k8s 获取全系列教程. 本篇是做为系列的第一篇文章,先来带大家一起搭建一个可用的 K8S 环境. K8S 环境的搭建,是很多想学习 K8S 的人止于在入门之外的第一道门槛,不少人在这一道关上就被直接被劝退了.

记 K8s 集群中 Flannel 遇到的两个问题

- - IT瘾-dev
自建的 K8s 集群的坑不少, 尤其是到了 Node 数量越来越多之后, 问题也逐渐显露了出来, 博客主要介绍我们使用 flannel之后遇到的两个问题以及解决方案, 问题其实不严重, 只是涉及到了底层的结构, 改动时候要小心.. 问题 1 flannel 的 OOM 问题. 下面这张图是官方的配置, 可以看到, 默认的资源设置仅给定了 50M 内存.