https://rancher.com/ logo
Title
h

hundreds-jewelry-18968

01/09/2023, 1:16 AM
Hola a todos, Tengo un cluster usando k3s y unos raspberrypis. Funciona perfecto pero es la segunda vez que tengo este error:
● k3s.service - Lightweight Kubernetes
     Loaded: loaded (/etc/systemd/system/k3s.service; enabled; vendor preset: enabled)
     Active: active (running) since Mon 2023-01-09 00:57:40 GMT; 26s ago
       Docs: <https://k3s.io>
    Process: 29663 ExecStartPre=/bin/sh -xc ! /usr/bin/systemctl is-enabled --quiet nm-cloud-setup.service (code=exited, status=0/SUCCESS)
    Process: 29665 ExecStartPre=/sbin/modprobe br_netfilter (code=exited, status=0/SUCCESS)
    Process: 29666 ExecStartPre=/sbin/modprobe overlay (code=exited, status=0/SUCCESS)
   Main PID: 29667 (k3s-server)
      Tasks: 105
     Memory: 713.5M
        CPU: 55.998s
     CGroup: /system.slice/k3s.service
             ├─27643 /var/lib/rancher/k3s/data/73e12683e3eb1c52a6370763bda6bb977c304a3b6cda6e5c7656f45f3725e7dd/bin/containerd-shim-runc-v2 -namespace <http://k8s.io|k8s.io> -id 866ca3db8ed3>
             ├─27988 /var/lib/rancher/k3s/data/73e12683e3eb1c52a6370763bda6bb977c304a3b6cda6e5c7656f45f3725e7dd/bin/containerd-shim-runc-v2 -namespace <http://k8s.io|k8s.io> -id 699af3f5d3c1>
             ├─28196 /var/lib/rancher/k3s/data/73e12683e3eb1c52a6370763bda6bb977c304a3b6cda6e5c7656f45f3725e7dd/bin/containerd-shim-runc-v2 -namespace <http://k8s.io|k8s.io> -id ac9ec12775e6>
             ├─28317 /var/lib/rancher/k3s/data/73e12683e3eb1c52a6370763bda6bb977c304a3b6cda6e5c7656f45f3725e7dd/bin/containerd-shim-runc-v2 -namespace <http://k8s.io|k8s.io> -id b345387839df>
             ├─28535 /var/lib/rancher/k3s/data/73e12683e3eb1c52a6370763bda6bb977c304a3b6cda6e5c7656f45f3725e7dd/bin/containerd-shim-runc-v2 -namespace <http://k8s.io|k8s.io> -id 880445942eb9>
             ├─29667 /usr/local/bin/k3s server
             └─29683 containerd -c /var/lib/rancher/k3s/agent/etc/containerd/config.toml -a /run/k3s/containerd/containerd.sock --state /run/k3s/containerd --root /var/lib/ra>

Jan 09 00:58:01 facio k3s[29667]: I0109 00:58:01.010177   29667 ttl_controller.go:121] Starting TTL controller
Jan 09 00:58:01 facio k3s[29667]: I0109 00:58:01.010203   29667 shared_informer.go:240] Waiting for caches to sync for TTL
Jan 09 00:58:01 facio k3s[29667]: I0109 00:58:01.022756   29667 node_ipam_controller.go:91] Sending events to api server.
Jan 09 00:58:01 facio k3s[29667]: E0109 00:58:01.441328   29667 authentication.go:63] "Unable to authenticate the request" err="[x509: certificate has expired or is not yet v>
Jan 09 00:58:04 facio k3s[29667]: E0109 00:58:04.547721   29667 authentication.go:63] "Unable to authenticate the request" err="[x509: certificate has expired or is not yet v>
Jan 09 00:58:04 facio k3s[29667]: E0109 00:58:04.548614   29667 authentication.go:63] "Unable to authenticate the request" err="[x509: certificate has expired or is not yet v>
Jan 09 00:58:04 facio k3s[29667]: E0109 00:58:04.548867   29667 authentication.go:63] "Unable to authenticate the request" err="[x509: certificate has expired or is not yet v>
Si mal no recuerdo se iba a cumplir un año en en el que este cluster iba a estar funcionando sin interrupciones. No he tocado nada. Alguien sabe como arreglar el problema
"Unable to authenticate the request" err="[x509: certificate has expired or is not yet v>"
? la primera vez que vi este error reinstale el cluster, quisiera evitar hacerlo nuevamente.
q

quick-sandwich-76600

01/13/2023, 10:26 AM
Hola @hundreds-jewelry-18968. Efectivamente, pasado el año los certificados expiran. Al no haber reiniciado el cluster en ese tiempo el proceso automático no ha saltado. Puedes ejecutar la renovación manual sin necesidad de reinstalar en cluster: https://docs.k3s.io/advanced
Hola @hundreds-jewelry-18968 . Te funcionó el proceso que te pasé?
h

hundreds-jewelry-18968

01/20/2023, 9:39 AM
Hola Juan, gracias por la informacion. Tomé nota para la proxima vez que suceda, es bueno saber como actualizar los certs y no habia visto la info que pasaste. Recuerdo que intentando actualziar uno de los nodos a la ultima version genero que tenga que reinstalar todo el cluster, espero la proxima vez evitarlo. gracias