Search
Write a publication
Pull to refresh
-1
0
Александр @noirr

User

Send message

Можно проще

wsl --manage rancher-desktop --move E:\WSL

где: E:\WSL это каталог где будет сохранен образ диска (vhdx)

У меня PyCharm 2024.1.4, так и дома на Professional и на работе на Community версиях у меня пропала эта фишка.

Search everywhere испортили — никакого больше предпросмотра найденной строки. Было удобно не переходя в файл править что-то в окне поиска.

Точно не скажу, скорее всего первый. Это два довольно популярных бесплатных впн из телеграмма. Который, в свою очередь, так же не работает, так что уточнить не могу :)

Могу подтвердить, Ростовская область. Два разных vpn-а по протоколу shadowsocks оба одновременно, толи утром, толи ночью сдохли и не оживают.

Решил проблему, добавьте пожалуйста в мануал

kubectl apply -f https://github.com/weaveworks/weave/releases/download/v2.8.1/weave-daemonset-k8s.yaml

Сделал "kubeadm reset" на всех нодах и указал явно apiserver-advertise-address и

control-plane-endpoint и ничего не изменилось.

root@k8s-master:~/yamls# kubectl get nodes
NAME          STATUS   ROLES           AGE   VERSION
k8s-master    Ready    control-plane   13m   v1.27.2
k8s-worker1   Ready    <none>          11m   v1.27.2
k8s-worker2   Ready    <none>          11m   v1.27.2
root@k8s-master:~/yamls# kubectl get po -o wide
NAME            READY   STATUS    RESTARTS   AGE     IP           NODE          NOMINATED NODE   READINESS GATES
testapp-2p5gd   1/1     Running   0          2m37s   10.85.0.67   k8s-worker1   <none>           <none>
testapp-b6cb5   1/1     Running   0          2m37s   10.85.0.21   k8s-worker2   <none>           <none>
testapp-bnstn   1/1     Running   0          2m37s   10.85.0.66   k8s-worker1   <none>           <none>
root@k8s-master:~/yamls# kubectl get svc
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)   AGE
kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP   10m
testapp      ClusterIP   10.109.131.36   <none>        80/TCP    3m

# Выполняю на мастере - запросы не проходят
root@k8s-master:~/yamls# curl 10.109.131.36
curl: (7) Failed to connect to 10.109.131.36 port 80: No route to host

# Выполняю на первом воркере - запросы проходят только к тем подам которые крутятся на этом же воркере, запрос к поду на worker2 не проходит
root@k8s-worker1:~# curl 10.109.131.36
You've hit testapp-2p5gd
root@k8s-worker1:~# curl 10.109.131.36
You've hit testapp-bnstn
root@k8s-worker1:~# curl 10.109.131.36
curl: (7) Failed to connect to 10.109.131.36 port 80: No route to host

# Со второго воркера запросы отрабатывают только для пода testapp-b6cb5
root@k8s-worker2:~# curl 10.109.131.36
You've hit testapp-b6cb5
root@k8s-worker2:~# curl 10.109.131.36
curl: (7) Failed to connect to 10.109.131.36 port 80: No route to host
root@k8s-worker2:~# curl 10.109.131.36
curl: (7) Failed to connect to 10.109.131.36 port 80: No route to host

Там, чуть выше, @scruffпишет про CNI, возможно в этом дело?

К сожалению, ноды пингуют друг друга без проблем без проблем :)

Спасибо за статью, очень доступно изложено, но столкнулся с проблемой, возможно Вы сможете помочь. Поды на разных нодах не видят друг друга. В рамках одной ноды без проблем, но на разных что при доступе через сервис, что напрямую по ip - недоступны.

Information

Rating
Does not participate
Location
Москва и Московская обл., Россия
Registered
Activity