Disculpa si lo que voy ha plantear suena estúpido o algo así, pero ...

Has pensado en lugar de eliminar kernels, ampliar el espacio de la
partición que los contiene?

Saludos,
-- 
Erki Polo Manresa

Formas de Contacto:
Oficina: (+53)(7)8015198
  Móvil: (+53)(5)1322373
 Correo: erkip...@gmail.com

El sáb, 16-11-2024 a las 12:01 -0500, Juan J. Fernandez escribió:
> Nota: Parece el bateo es que la particion /dev/sda2 y /dev/sdb2 de
> 512 MB está ya llena de kernels y initramfs y cosas viejas ! (a pesar
> yo uso regularmente apr autoremove --purge) pues mi sistema usa
> systemd-boot como bootloader en modo EFI 
>  
>  Buenas Noches , nope, Ulises , le copié una MKV video de un juego
> pelota liga NPB via scp desde mi Windows directo a ese /var/tmp sin
> lio . despues incluso cree un directorio ahi en /var/tmp sin lio , le
> hize cp de ese mkv a ese directorio sin lio , cree otro directorio
> mas adentro llamado igualito al que da bateo que n oexiste y lo creó
> sin problema , le hice un cp a la peli hacia adentro de ese nuev
> odirectorio alla adentro de /var/tmp y sin lio , por ende tiene las 3
> pelis o copisa de 2 GB de esos videos como 6 u 8 GB en total y sin
> lio . 
>  
>  Realmente cuando el rranca el journal dice que el sistema de
> ficheros esta perfecto sin lio asi que n ocreo sea corrupcion del
> sistema de ficheros por eso no he regresado a single user mode para
> hacer e2fssck   
>  
>  Tampoco hay quotas por ningun lado del ZFS ese. el comando zfs list
> lista todo bien , y el comando zfs get quota en varios de esos tipos
> de zfs listados ninguno tiene quota tampoco , asi que no es eso ,
> ademas realmemente se comio 6 GB en video asi que no creo sea bateo
> de quota. 
>  
>  El problema me parece realmente es que efectivamente por alguna
> razon la particion /dev/sda2 y /dev/sdb2 de 512 MB de tipo vFAT que
> es la dedicada para el bootloader de systemd-boot imagino que ese
> DEVICE storage es el que está lleno pero no logro ver forma de como
> limpiarlo o sea quitarle kernels viejos y cosas asi . 
>  
>  Yo realmente pensaba que mi viejo sistema R610 llamado nest como era
> EFI con ZFS realmente usaba GRUB2 como bootloader PERO REALMENTE USA
> el mas moderno systemd-boot que ya veo es l oque implementa por
> defecto PROXMOX cuando no se usa Secure Boot como en mi caso . Vean
> la salida del comando efimngr -v lo que dice en el Boot0005 que es el
> Current 
>  
>  Boot0005* Linux Boot Manager    HD(2,GPT,75d8b578-3b18-4b80-bdb1-
> e4b6c5bfd3bb,0x800,0x100000)/File(\EFI\systemd\systemd-bootx64.efi)
>  
>  el comando para manipular el bootloader en sistemas PROXMOX que usan
> systemd-boot es ... y vean lo que dice su status y vean la retraila
> de kernels que tiene definidos o en su interior por gusto me parece
> peus supeustamente los eternos y persistentes y repititivos comandos
> apr autoremove --purge que yo regularmente hago debieron habr quitado
> muchos de esos me imagino 
>  
>  root@nest:~# proxmox-boot-tool status
>  Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount
> namespace..
>  System currently booted with uefi
>  1808-B094 is configured with: uefi (versions: 6.5.13-6-pve, 6.8.12-
> 1-pve, 6.8.8-4-pve), grub (versions: 6.2.16-19-pve, 6.5.11-4-pve,
> 6.5.13-6-pve, 6.8.12-1-pve, 6.8.8-4-pve)
>  1809-F012 is configured with: uefi (versions: 6.5.13-6-pve, 6.8.12-
> 1-pve, 6.8.8-4-pve), grub (versions: 6.2.16-19-pve, 6.5.11-4-pve)
>  
>  Lo otro que no entiendo es donde está ese 1809-F012 puesto que en el
> directorio /var/tmp/espmounts solo aparece listado el 1808-B094 como
> directorio y vean el comando que meustra la lista de kernels
> configurados y por ende manualmente no hay ninguno y los 4 que
> aparecen son los que son . 12-1 es el running kernel aun pues 12-2 y
> 12-4 han estado a la espera de que deje de dar ese error de No space
> on device que me imagin oquiere decir que en esa particion de 512 MB
> /dev/sda2 y /dev/sdb2 ya no hay espacio suficiente parece
>  
>  root@nest:~# proxmox-boot-tool kernel list
>  Manually selected kernels:
>  None.
>  
>  Automatically selected kernels:
>  6.5.13-6-pve
>  6.8.12-1-pve
>  6.8.12-2-pve
>  6.8.12-4-pve
>  
>  Con el comando kernel remove de ahi no puedo quitar nada para
> liberar espacio peus en Manual kernels no hay nada y en la
> documentacion oficial de Proxmox del Host Bootloader no veo expliquen
> como liberar espacio  en Host Bootloader - Proxmox VE
>  
>  Asi que no veo forma como liberar espacio de esos 512 MB pues no
> creo que dstruir 1 de las 2 particiones y despues darle el comando
> refresh o darle init por ejemplo a /dev/sdb2 vaya a resolver algo 
>  
>  Pero me parece que ese /dev/sdb2 de 512 MB es el del bateo o sea
> esta ya lleno de kernel y initrd images y demás peus ahi es donde se
> almacenan esos kernels para el arranque . ESte Dell R610 realmente yo
> a vecez l ohe arrancado en modo EFI y a vecez en Modo BIOS por ende
> realmente el cuando en el System BIOS le tengo puesto que arranque
> por UEFI el por supuesto arranca con la clasica pantalla negra y
> pocas letras balncas del bootloader de Proxmox que lista 2 kernels en
> mi caso solamente pro cierto y ese es el metodo de systemd-boot pero
> sy le pongo use modo BIOS entonces la pantalla del arranque es la
> clasica azul que lista varios menus y ese es el el bootloader de tipo
> GRUB2 pero ese no recuerdo tampoco liste muchos kernels ni la cabeza
> del guanajo como para que ese haya llenado los 512 MB me parece . 
>  
>  Peor si definitivamente ese comando proxmox-boot-tool fué el que yo
> siguiendo un blog para resolver o implementar el GPU PCI PASSthrough
> useé n ohace mucho y posiblemente despues de eso es que me empezó a
> dar este bateo seguramente , ahora lo que no recuerdo cual fue el
> comando total que yo usé jejejejej , hmmm dejame echarle para atras
> en root a los comandos a ver ?????? , nope , demasiado atras ene l
> tiempo pero buscando en mis favoritos del browser ya veo lso comandos
> que use fue simplemente ese proxmox-boot-tool refresh  y el clasico
> update-initramfs -u -k all y so sol ofue fúe porque tuve que agregar
> ciertos parametros a la config de lso modulos del kernel asi que eso
> nopuede llenar esa particion de 512 MB. 
>  
>  Lo otro es que realmente todo eso se have en unos GUI UUID dentro de
> /dev/disk que segun el comando mount es un udev de esos que el
> sistema de fichero es de  tipo devtmpfs  pero en teoria segun zfs
> list ese /dev realmente stá aentro de la raiz / asi que n odebe ser
> ese el io peus hay espacio suficiente ahi .
>  
>  La pregunta Ulyses es entonces , como yo libero espacio en esas2
> particiones de lso 2 discos inicioles que estan en mirror de 1 TB
> cada uno  /dev/sda2 y ese /dev/sdb2 (ojo , el segundo mirror que yo
> adicione de 2 discos mas de 1 TB con el comando zpool add rpool
> mirror o similar no está partyicionado asi pero me parece tampoco le
> hace falta pues ese segundo mirror es solo una extension del mirror
> para agregar espacio de data) . acaso tengo que hacer eso via
> comandos gparted y reconfigurar esas 3 particiones iniciales? ??? ,
> no me parece puesto que voy a afectar la data ya grabada ahi digo yo
> !!!! o com ome met oyo dentro de esa particion y elimino kernels e
> initramfs viejos ????? 
>  
>  Lamentablemente el comando proxmox-boot-tool estos salaos de PROXMOX
> no le han hecho un manual o info que diga todos lso subcomandos que
> posee y en su docu solo hablan de refersh y list y status y add y pin
> y unpin y remove y eso pero esos solo remove los kernels que hayan
> sido instalados manualmente   
> Lo otro es que quizas en modo BISO el GRUB2 ese si tenga muchos
> kernels viejos quizas pero realmente segun entiendo yo eso esta
> almacenado solo en la particion /dev/sda1 de apenas 1 MB que es la
> que usa BIOS y GRUB2  ypor ende eso no tiene nada que ver con lo que
> sta sucediendo que es via EFI y systemd-boot 
>  
>  Ya a esta hora y oesas pelis MKV de 2GB las eliminé de nuev o de
> esos directorios dentro de /var/tmp por cierto.
>  
>  Agradeceré mas consejos y punteros a como liberar espacio en esas
> particiones de 512 MB de tipo vFAT segun lsblk . Vean ....
>  
>  root@nest:~# findmnt /
>  TARGET SOURCE           FSTYPE OPTIONS
>  /      rpool/ROOT/pve-1 zfs    rw,relatime,xattr,noacl,casesensitive
>  
>  root@nest:~# lsblk -o +FSTYPE
>  NAME     MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS FSTYPE
>  sda        8:0    0 931.5G  0 disk
>  ├─sda1     8:1    0  1007K  0 part
>  ├─sda2     8:2    0   512M  0 part             vfat
>  └─sda3     8:3    0   931G  0 part             zfs_member
>  sdb        8:16   0 931.5G  0 disk
>  ├─sdb1     8:17   0  1007K  0 part
>  ├─sdb2     8:18   0   512M  0 part             vfat
>  └─sdb3     8:19   0   931G  0 part             zfs_member
>  sdc        8:32   0 931.5G  0 disk
>  ├─sdc1     8:33   0 931.5G  0 part             zfs_member
>  └─sdc9     8:41   0     8M  0 part
>  sdd        8:48   0 931.5G  0 disk
>  ├─sdd1     8:49   0 931.5G  0 part             zfs_member
>  └─sdd9     8:57   0     8M  0 part
>  
>  Cheers
>  JJ
>  
>  
>  
>  On 11/15/2024 7:20 PM, Ulises Gonzalez Horta wrote:
>  
> >  
> > On 2024-11-15 18:40, Juan J. Fernandez wrote:
> >  
> > > Sorry olvidé poner la salida de DF -H y vean com odecia todo esta
> > > al 2% con espacio libre de sobra excepto EFIVARS pero eso no es
> > > lo que da bateo . 
> > >  
> > >  root@nest:~# df -h
> > >  Filesystem                    Size  Used Avail Use% Mounted on
> > >  udev                           16G     0   16G   0% /dev
> > >  tmpfs                         3.2G  2.5M  3.2G   1% /run
> > >  rpool/ROOT/pve-1              857G   17G  841G   2% /
> > >  tmpfs                          16G   45M   16G   1% /dev/shm
> > >  tmpfs                         5.0M  4.0K  5.0M   1% /run/lock
> > >  efivarfs                       64K   39K   21K  65%
> > > /sys/firmware/efi/efivars
> > >  rpool                         841G  128K  841G   1% /rpool
> > >  rpool/ROOT                    841G  128K  841G   1% /rpool/ROOT
> > >  rpool/data                    841G  128K  841G   1% /rpool/data
> > >  rpool/data/subvol-102-disk-0  500G  5.6G  495G   2%
> > > /rpool/data/subvol-102-disk-0
> > >  rpool/data/subvol-101-disk-1  500G  2.4G  498G   1%
> > > /rpool/data/subvol-101-disk-1
> > >  rpool/data/subvol-104-disk-0  250G  3.3G  247G   2%
> > > /rpool/data/subvol-104-disk-0
> > >  rpool/data/subvol-103-disk-0  100G  3.9G   97G   4%
> > > /rpool/data/subvol-103-disk-0
> > >  rpool/data/subvol-105-disk-0  250G  4.4G  246G   2%
> > > /rpool/data/subvol-105-disk-0
> > >  rpool/data/subvol-107-disk-0  500G   17G  484G   4%
> > > /rpool/data/subvol-107-disk-0
> > >  rpool/data/subvol-106-disk-0  350G   11G  340G   4%
> > > /rpool/data/subvol-106-disk-0
> > >  rpool/data/subvol-108-disk-0  500G  623M  500G   1%
> > > /rpool/data/subvol-108-disk-0
> > >  rpool/data/subvol-109-disk-0  250G  1.4G  249G   1%
> > > /rpool/data/subvol-109-disk-0
> > >  /dev/fuse                     128M   84K  128M   1% /etc/pve
> > >  tmpfs                         3.2G     0  3.2G   0% /run/user/0
> > De acuredo a esta salida /tmp y /var/tmp son parte de  /  y espacio
> > tienes
> > Lo otro que se me ocurre es que haya corrupcion en el FS
> >  Prueba  escribir un archivo de 1G o mas en /var/tmp a ver que
> > pasa, si te da error o algo. 
> >  Si te da error te toca correr fsck pero como es parte de root vas
> > a tener que reiniciar en single user o hacerlo desde un live CD
> > La otra estupidez que me viene  a la mente viendo que es un rpool
> > ,  no tendra alguna quota??
> > -- 
> >  Salu2, Ulinx
> >  "En un problema con n ecuaciones
> >  siempre habrá al menos n+1 incógnitas"
> >  Linux user 366775
> >  Visita mi tienda de electronica
> > https://www.solucionesenelectronicacuba.com
> >  Quieres saber de Cuba o visitar Cuba, revisa mi canal Youtube (en
> > español) http://bit.ly/Alocubano
> >  
> >  
> > _______________________________________________
> > Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
> > To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu
> _______________________________________________
> Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
> To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu

_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu

Responder a