Nota: Le hice un proxmox-boot-tool FORMAT a /dev/sdb2 pero no me deja hacerle 
INIT !!! para poder SYNCH los ESP con el subcomando REFRESH. Vean la trova 
explicativa y agradeceré mas info o sugerencis. 

Buenas noches,  en la documentación de Proxmox online en Host Bootloader en :

https://pve.proxmox.com/wiki/Host_Bootloader#sysboot_proxmox_boot_tool 
<https://pve.proxmox.com/wiki/Host_Bootloader#sysboot_proxmox_boot_tool>

Realmente explican muchos subcomandos de ese boot tool y explican como FORMAT e 
INIT precisamente esas 2 particiones que PROXMOX crea , la sda1 para sistemas 
cuando bootean por BIOS o sea para GRUB y las sda2 para sistemas como el mio 
que usualmente lo boten por UEFI o sea la partición /boot/efi o EFI para 
systemd-boot 

En fin, me subió el loco Y A PESAR REALMENTE ESAS PARTICIONES AUN ESTAN mounted 
y live decidi pasarles el parametro —force para forzar el format pero por 
suerte solo lo he hecho en la /dev/sdb2 

O sea este sistema originalmente al ser 2 discos de 1 TB en modo ZFS entonces 
proxmox crea o participan ambos discos igualitos , por ende supuestamente sda2 
y sdb2 deben ser exactamente iguales sus contenidos solo que los UUID son 
distintos claro . 

en fin , le di el comando proxmox-boot-tool format /dev/sdb2 —force     ……. y 
eso evidentemente formato ese sistema de fichero de tipo VFAT de 512 MB. El 
problema es que al parecer el le asigna un NUEVO UUID AL ESP ESE pero eso n 
debe ser problema puesto que supuestamente el comando subcomando INIT debe 
inicializar esa partición y reconfigurarla apropiadamente y supuestamente 
despues el subrogando REFRESH debe copiar lso kernels o ficheros vmlix y 
init-rd adecuados adentro de esa nueva partición sdb2 forrajeada no? 

El asunto es que cuando hago el INIT con proxmox-boot-tool INIT /dev/sdb2.  ….. 
me da el error de que no encuentra bootctl y dice que como que este sistema no 
es systemd-boot? lo cual me llamó la atención pues supuestamente este sistema 
botes UEFI y via systemd-boot

root@nest:/boot# proxmox-boot-tool init /dev/sdb2
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount namespace..
UUID="F8F3-6927" SIZE="536870912" FSTYPE="vfat" 
PARTTYPE="c12a7328-f81f-11d2-ba4b-00a0c93ec93b" PKNAME="sdb" MOUNTPOINT=""
Mounting '/dev/sdb2' on '/var/tmp/espmounts/F8F3-6927'.
Installing systemd-boot..
E: bootctl is not available - make sure systemd-boot is installed

Decidi hacer un apt list systemd-boot y realmente me dice que so n esta 
instalado por ende decidi instalarlo a ver si ya con eso aparece el saldo 
bootctl ese para poder hacer el INIT por ende lo intenté instalar con :

apt install systemd-boot

pero por supuesto el sistema o apt ese nunca puede instalar nada pues da el 
error de que no space left on device pues no puede reconfigurarlo los kernels . 

en oras palabras vuelvo a trabarme y aun no he hecho un reboot aunque me parece 
aunque ya yo haya formateado /dev/sdb2 realmente el sistema debe ser capaz de 
botera directo por /dev/sda2 o sea LA PARTICION EFI en el primer disco 

or ende , pregunto , SIN AUMENTAR LOS 512 MB DE ESAS PARTICIONES SDA2 Y SDB2 
que puedo hacer para lograr formatearlas e inicializarlas  pues me parece que 
si yo no logro INIT entonces no puedo hacer el sublimando REFRESH que es el 
equivalente a update-grub en un sistema BIOS clásico que usa GRUB2 

Realmente en los foros o documentales o google no encuentro mas respuestas 

Cheers
JJ


> On Nov 16, 2024, at 12:53 PM, Erki Polo Manresa <erkip...@gmail.com> wrote:
> 
> Disculpa si lo que voy ha plantear suena estúpido o algo así, pero ...
> 
> Has pensado en lugar de eliminar kernels, ampliar el espacio de la
> partición que los contiene?
> 
> Saludos,
> -- 
> Erki Polo Manresa
> 
> Formas de Contacto:
> Oficina: (+53)(7)8015198
>  Móvil: (+53)(5)1322373
> Correo: erkip...@gmail.com
> 
> El sáb, 16-11-2024 a las 12:01 -0500, Juan J. Fernandez escribió:
>> Nota: Parece el bateo es que la particion /dev/sda2 y /dev/sdb2 de
>> 512 MB está ya llena de kernels y initramfs y cosas viejas ! (a pesar
>> yo uso regularmente apr autoremove --purge) pues mi sistema usa
>> systemd-boot como bootloader en modo EFI 
>>  
>>  Buenas Noches , nope, Ulises , le copié una MKV video de un juego
>> pelota liga NPB via scp desde mi Windows directo a ese /var/tmp sin
>> lio . despues incluso cree un directorio ahi en /var/tmp sin lio , le
>> hize cp de ese mkv a ese directorio sin lio , cree otro directorio
>> mas adentro llamado igualito al que da bateo que n oexiste y lo creó
>> sin problema , le hice un cp a la peli hacia adentro de ese nuev
>> odirectorio alla adentro de /var/tmp y sin lio , por ende tiene las 3
>> pelis o copisa de 2 GB de esos videos como 6 u 8 GB en total y sin
>> lio . 
>>  
>>  Realmente cuando el rranca el journal dice que el sistema de
>> ficheros esta perfecto sin lio asi que n ocreo sea corrupcion del
>> sistema de ficheros por eso no he regresado a single user mode para
>> hacer e2fssck   
>>  
>>  Tampoco hay quotas por ningun lado del ZFS ese. el comando zfs list
>> lista todo bien , y el comando zfs get quota en varios de esos tipos
>> de zfs listados ninguno tiene quota tampoco , asi que no es eso ,
>> ademas realmemente se comio 6 GB en video asi que no creo sea bateo
>> de quota. 
>>  
>>  El problema me parece realmente es que efectivamente por alguna
>> razon la particion /dev/sda2 y /dev/sdb2 de 512 MB de tipo vFAT que
>> es la dedicada para el bootloader de systemd-boot imagino que ese
>> DEVICE storage es el que está lleno pero no logro ver forma de como
>> limpiarlo o sea quitarle kernels viejos y cosas asi . 
>>  
>>  Yo realmente pensaba que mi viejo sistema R610 llamado nest como era
>> EFI con ZFS realmente usaba GRUB2 como bootloader PERO REALMENTE USA
>> el mas moderno systemd-boot que ya veo es l oque implementa por
>> defecto PROXMOX cuando no se usa Secure Boot como en mi caso . Vean
>> la salida del comando efimngr -v lo que dice en el Boot0005 que es el
>> Current 
>>  
>>  Boot0005* Linux Boot Manager    HD(2,GPT,75d8b578-3b18-4b80-bdb1-
>> e4b6c5bfd3bb,0x800,0x100000)/File(\EFI\systemd\systemd-bootx64.efi)
>>  
>>  el comando para manipular el bootloader en sistemas PROXMOX que usan
>> systemd-boot es ... y vean lo que dice su status y vean la retraila
>> de kernels que tiene definidos o en su interior por gusto me parece
>> peus supeustamente los eternos y persistentes y repititivos comandos
>> apr autoremove --purge que yo regularmente hago debieron habr quitado
>> muchos de esos me imagino 
>>  
>>  root@nest:~# proxmox-boot-tool status
>>  Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount
>> namespace..
>>  System currently booted with uefi
>>  1808-B094 is configured with: uefi (versions: 6.5.13-6-pve, 6.8.12-
>> 1-pve, 6.8.8-4-pve), grub (versions: 6.2.16-19-pve, 6.5.11-4-pve,
>> 6.5.13-6-pve, 6.8.12-1-pve, 6.8.8-4-pve)
>>  1809-F012 is configured with: uefi (versions: 6.5.13-6-pve, 6.8.12-
>> 1-pve, 6.8.8-4-pve), grub (versions: 6.2.16-19-pve, 6.5.11-4-pve)
>>  
>>  Lo otro que no entiendo es donde está ese 1809-F012 puesto que en el
>> directorio /var/tmp/espmounts solo aparece listado el 1808-B094 como
>> directorio y vean el comando que meustra la lista de kernels
>> configurados y por ende manualmente no hay ninguno y los 4 que
>> aparecen son los que son . 12-1 es el running kernel aun pues 12-2 y
>> 12-4 han estado a la espera de que deje de dar ese error de No space
>> on device que me imagin oquiere decir que en esa particion de 512 MB
>> /dev/sda2 y /dev/sdb2 ya no hay espacio suficiente parece
>>  
>>  root@nest:~# proxmox-boot-tool kernel list
>>  Manually selected kernels:
>>  None.
>>  
>>  Automatically selected kernels:
>>  6.5.13-6-pve
>>  6.8.12-1-pve
>>  6.8.12-2-pve
>>  6.8.12-4-pve
>>  
>>  Con el comando kernel remove de ahi no puedo quitar nada para
>> liberar espacio peus en Manual kernels no hay nada y en la
>> documentacion oficial de Proxmox del Host Bootloader no veo expliquen
>> como liberar espacio  en Host Bootloader - Proxmox VE
>>  
>>  Asi que no veo forma como liberar espacio de esos 512 MB pues no
>> creo que dstruir 1 de las 2 particiones y despues darle el comando
>> refresh o darle init por ejemplo a /dev/sdb2 vaya a resolver algo 
>>  
>>  Pero me parece que ese /dev/sdb2 de 512 MB es el del bateo o sea
>> esta ya lleno de kernel y initrd images y demás peus ahi es donde se
>> almacenan esos kernels para el arranque . ESte Dell R610 realmente yo
>> a vecez l ohe arrancado en modo EFI y a vecez en Modo BIOS por ende
>> realmente el cuando en el System BIOS le tengo puesto que arranque
>> por UEFI el por supuesto arranca con la clasica pantalla negra y
>> pocas letras balncas del bootloader de Proxmox que lista 2 kernels en
>> mi caso solamente pro cierto y ese es el metodo de systemd-boot pero
>> sy le pongo use modo BIOS entonces la pantalla del arranque es la
>> clasica azul que lista varios menus y ese es el el bootloader de tipo
>> GRUB2 pero ese no recuerdo tampoco liste muchos kernels ni la cabeza
>> del guanajo como para que ese haya llenado los 512 MB me parece . 
>>  
>>  Peor si definitivamente ese comando proxmox-boot-tool fué el que yo
>> siguiendo un blog para resolver o implementar el GPU PCI PASSthrough
>> useé n ohace mucho y posiblemente despues de eso es que me empezó a
>> dar este bateo seguramente , ahora lo que no recuerdo cual fue el
>> comando total que yo usé jejejejej , hmmm dejame echarle para atras
>> en root a los comandos a ver ?????? , nope , demasiado atras ene l
>> tiempo pero buscando en mis favoritos del browser ya veo lso comandos
>> que use fue simplemente ese proxmox-boot-tool refresh  y el clasico
>> update-initramfs -u -k all y so sol ofue fúe porque tuve que agregar
>> ciertos parametros a la config de lso modulos del kernel asi que eso
>> nopuede llenar esa particion de 512 MB. 
>>  
>>  Lo otro es que realmente todo eso se have en unos GUI UUID dentro de
>> /dev/disk que segun el comando mount es un udev de esos que el
>> sistema de fichero es de  tipo devtmpfs  pero en teoria segun zfs
>> list ese /dev realmente stá aentro de la raiz / asi que n odebe ser
>> ese el io peus hay espacio suficiente ahi .
>>  
>>  La pregunta Ulyses es entonces , como yo libero espacio en esas2
>> particiones de lso 2 discos inicioles que estan en mirror de 1 TB
>> cada uno  /dev/sda2 y ese /dev/sdb2 (ojo , el segundo mirror que yo
>> adicione de 2 discos mas de 1 TB con el comando zpool add rpool
>> mirror o similar no está partyicionado asi pero me parece tampoco le
>> hace falta pues ese segundo mirror es solo una extension del mirror
>> para agregar espacio de data) . acaso tengo que hacer eso via
>> comandos gparted y reconfigurar esas 3 particiones iniciales? ??? ,
>> no me parece puesto que voy a afectar la data ya grabada ahi digo yo
>> !!!! o com ome met oyo dentro de esa particion y elimino kernels e
>> initramfs viejos ????? 
>>  
>>  Lamentablemente el comando proxmox-boot-tool estos salaos de PROXMOX
>> no le han hecho un manual o info que diga todos lso subcomandos que
>> posee y en su docu solo hablan de refersh y list y status y add y pin
>> y unpin y remove y eso pero esos solo remove los kernels que hayan
>> sido instalados manualmente   
>> Lo otro es que quizas en modo BISO el GRUB2 ese si tenga muchos
>> kernels viejos quizas pero realmente segun entiendo yo eso esta
>> almacenado solo en la particion /dev/sda1 de apenas 1 MB que es la
>> que usa BIOS y GRUB2  ypor ende eso no tiene nada que ver con lo que
>> sta sucediendo que es via EFI y systemd-boot 
>>  
>>  Ya a esta hora y oesas pelis MKV de 2GB las eliminé de nuev o de
>> esos directorios dentro de /var/tmp por cierto.
>>  
>>  Agradeceré mas consejos y punteros a como liberar espacio en esas
>> particiones de 512 MB de tipo vFAT segun lsblk . Vean ....
>>  
>>  root@nest:~# findmnt /
>>  TARGET SOURCE           FSTYPE OPTIONS
>>  /      rpool/ROOT/pve-1 zfs    rw,relatime,xattr,noacl,casesensitive
>>  
>>  root@nest:~# lsblk -o +FSTYPE
>>  NAME     MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS FSTYPE
>>  sda        8:0    0 931.5G  0 disk
>>  ├─sda1     8:1    0  1007K  0 part
>>  ├─sda2     8:2    0   512M  0 part             vfat
>>  └─sda3     8:3    0   931G  0 part             zfs_member
>>  sdb        8:16   0 931.5G  0 disk
>>  ├─sdb1     8:17   0  1007K  0 part
>>  ├─sdb2     8:18   0   512M  0 part             vfat
>>  └─sdb3     8:19   0   931G  0 part             zfs_member
>>  sdc        8:32   0 931.5G  0 disk
>>  ├─sdc1     8:33   0 931.5G  0 part             zfs_member
>>  └─sdc9     8:41   0     8M  0 part
>>  sdd        8:48   0 931.5G  0 disk
>>  ├─sdd1     8:49   0 931.5G  0 part             zfs_member
>>  └─sdd9     8:57   0     8M  0 part
>>  
>>  Cheers
>>  JJ
>>  
>>  
>>  
>>  On 11/15/2024 7:20 PM, Ulises Gonzalez Horta wrote:
>>  
>>>  
>>> On 2024-11-15 18:40, Juan J. Fernandez wrote:
>>>  
>>>> Sorry olvidé poner la salida de DF -H y vean com odecia todo esta
>>>> al 2% con espacio libre de sobra excepto EFIVARS pero eso no es
>>>> lo que da bateo . 
>>>>  
>>>>  root@nest:~# df -h
>>>>  Filesystem                    Size  Used Avail Use% Mounted on
>>>>  udev                           16G     0   16G   0% /dev
>>>>  tmpfs                         3.2G  2.5M  3.2G   1% /run
>>>>  rpool/ROOT/pve-1              857G   17G  841G   2% /
>>>>  tmpfs                          16G   45M   16G   1% /dev/shm
>>>>  tmpfs                         5.0M  4.0K  5.0M   1% /run/lock
>>>>  efivarfs                       64K   39K   21K  65%
>>>> /sys/firmware/efi/efivars
>>>>  rpool                         841G  128K  841G   1% /rpool
>>>>  rpool/ROOT                    841G  128K  841G   1% /rpool/ROOT
>>>>  rpool/data                    841G  128K  841G   1% /rpool/data
>>>>  rpool/data/subvol-102-disk-0  500G  5.6G  495G   2%
>>>> /rpool/data/subvol-102-disk-0
>>>>  rpool/data/subvol-101-disk-1  500G  2.4G  498G   1%
>>>> /rpool/data/subvol-101-disk-1
>>>>  rpool/data/subvol-104-disk-0  250G  3.3G  247G   2%
>>>> /rpool/data/subvol-104-disk-0
>>>>  rpool/data/subvol-103-disk-0  100G  3.9G   97G   4%
>>>> /rpool/data/subvol-103-disk-0
>>>>  rpool/data/subvol-105-disk-0  250G  4.4G  246G   2%
>>>> /rpool/data/subvol-105-disk-0
>>>>  rpool/data/subvol-107-disk-0  500G   17G  484G   4%
>>>> /rpool/data/subvol-107-disk-0
>>>>  rpool/data/subvol-106-disk-0  350G   11G  340G   4%
>>>> /rpool/data/subvol-106-disk-0
>>>>  rpool/data/subvol-108-disk-0  500G  623M  500G   1%
>>>> /rpool/data/subvol-108-disk-0
>>>>  rpool/data/subvol-109-disk-0  250G  1.4G  249G   1%
>>>> /rpool/data/subvol-109-disk-0
>>>>  /dev/fuse                     128M   84K  128M   1% /etc/pve
>>>>  tmpfs                         3.2G     0  3.2G   0% /run/user/0
>>> De acuredo a esta salida /tmp y /var/tmp son parte de  /  y espacio
>>> tienes
>>> Lo otro que se me ocurre es que haya corrupcion en el FS
>>>  Prueba  escribir un archivo de 1G o mas en /var/tmp a ver que
>>> pasa, si te da error o algo. 
>>>  Si te da error te toca correr fsck pero como es parte de root vas
>>> a tener que reiniciar en single user o hacerlo desde un live CD
>>> La otra estupidez que me viene  a la mente viendo que es un rpool
>>> ,  no tendra alguna quota??
>>> -- 
>>>  Salu2, Ulinx
>>>  "En un problema con n ecuaciones
>>>  siempre habrá al menos n+1 incógnitas"
>>>  Linux user 366775
>>>  Visita mi tienda de electronica
>>> https://www.solucionesenelectronicacuba.com
>>>  Quieres saber de Cuba o visitar Cuba, revisa mi canal Youtube (en
>>> español) http://bit.ly/Alocubano
>>>  
>>>  
>>> _______________________________________________
>>> Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
>>> To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu
>> _______________________________________________
>> Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
>> To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu
> 
> _______________________________________________
> Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
> To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu

_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu

Responder a