-
Notifications
You must be signed in to change notification settings - Fork 541
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[求助/Help]上传系统镜像失败:save_fail: save image to storage s3 #18458
Comments
也会报这种错误
|
在回收站删除硬盘,出现报错:
|
@chenjacken 感觉是你的 k8s 集群内部网络出了问题,这个 minio 和 rook-ceph 默认都是走的 k8s 集群内部网络通信。 |
嗯,不知道如何排查这个问题。 |
@chenjacken 这里 https://www.cloudpods.org/zh/docs/ops/k8s/dnserror/ 有一些排查网络问题的文档。 |
@zexi 谢谢,我学习学习下。 我这环境是高可用部署,DB是双主高可用,VIP是
|
另外,重启控制节点1,之后在控制节点1上ping不同VIP(172.16.1.100),DB VIP(172.16.1.99),而另外两台控制节点是ping通
控制节点2网络:
|
这种问题不知道如何解决了 |
++++++++++++++++++++++
会出现这样的错误:
|
速度从开始几百MB/s,慢慢减速,然后就是10多KB
glance pod的日志报错:
|
@chenjacken 先用 |
@chenjacken 另外也需要看下会不会是上传镜像太大,导致磁盘空闲率小于 5% 了,如果太小了,会触发 k8s 的 eviction 机制,也可能造成这种情况。 |
三台控制节点的磁盘占用40%,基本还剩200G。待上传的镜像是76GB。 |
之前的文档可能存在问题,keepalived配置有问题,导致vip频繁偏移引发的问题。 根据https://www.cloudpods.org/zh/docs/setup/db-ha/ 最新的内容,修改了keepalived备节点的配置,重启keepalived,在测试和观察。有结果再反馈。 谢谢领导!@qiu |
控制服务的VIP切换的keepavlied配置文件位于 /etc/kubernetes/manifests/keepalived.yaml :
其中
eno1做了网桥,br0了,是否KEEPALIVED_INTERFACE要配置值为br0 ??
kube-system 下的 keepalived-master3 会崩溃,出现CreateContainerError,看日志:
出错时候,glance无法连接了
看了下这个glance就是在master3的节点上,就是 keepalived-master3所在的节点,通过 |
这个方法已经解决了数据库双主配置时候,keepalived配置数据库VIP会偏移不稳定的问题。注意看主备两个节点的keepalived不一样的配置内容。 |
/etc/kubernetes/manifests/keepalived.yaml内容是正确的,keepalived容器内有脚本会自动探测eno1改变为br0 日志看是master3的VIP漂移导致的,看下master3上kube-apiserver的日志是否正常 |
https://www.cloudpods.org/zh/docs/setup/db-ha/ 这个文章的数据库keepalived配置还是不够严谨'interface $DB_NETIF'写'eno1'还是'br0'都会有问题: 增加多一个脚本检测变化? master3上kube-apiserver的日志是否正常 今天再测试下,有结果再反馈。谢谢。 |
climc image-upload时候,我监控了三个控制节点服务器的情况,我把节点1和节点2的日志贴上来,麻烦帮忙看看了哈。 一,控制节点1--kube-apiserver的日志部分
二,控制节点1--keepalived-master1的日志部分
|
控制节点3--kube-apiserver的日志部分
控制节点3--keepalived-master3的日志部分
|
三,控制节点2--kube-apiserver的日志部分
四、控制节点2--keepalived-master2的日志部分
节点二的keepalived-master2直接退出了日志监控了,应该是keepalived都退出了。 没看出引发问题的点在那里:etcdserver ——> apiservice ——> keepalived ——> glance ? |
控制节点2的etcd-master2的日志
|
目前测试,此问题已经解决,引发此问题可能的点会有如下几点: 二,minio的配置是standalone模式,只有一个pod节点在运作mino,我的修改方式如下
三,检查宿主机的磁盘空间,在控制节点宿主机上查看PVC的空间:
|
1,版本
v3.10.6
三个控制节点高可用部署
后端用ceph块存储
2,在web端上传镜像,出现几次保存失败
请问,这个连接突然断开,一般需要怎么排查。?
The text was updated successfully, but these errors were encountered: