Buenas tardes, efectivamente el problema está en que la particion
/dev/sda2 de 512 MB parece estar llena con varios kernels y ficheros
vmlinuz y init-rd pero el lio es que si le doy apt purge p dpkg --purge
realmente NO PUEDE HACR NADA pues enseguida dice que no hay espacio
suficiente en ese storage device. En realidad son 2 discos de 1 TB , en
modo ZFS mirror , por ende tambien hay un mirror en /dev/sdb2 igualito
de 512 MB e igualemnte de tipo vFAT y a ese sdb2 le hice n FORMAT con la
herramienta proxmox-boot-tool format y eso si lo hizo pero cuando voy a
hacer el subcomando INIT para inicializar esa particion y prepararla
para que resynch ese ESP etntonc ecs da error de que no encuentra
bootctl o que no encuentra systemd-boot. El paquete systemd-boot no
está instalado y no puedo instalar nada con apt puesto que antes de
hacer nada enseguida dice que no hay espacio en e ldevice pues lo
primero que intenta es precisamente terminar de configurar los 2 kernels
anteriores , el 6.12-4 y el 6.12-2
voy a preguntar ahora en el foro de Proxmox a ver que solucion me dan
los europeos pues todo el mundo dice eso mismo de hacer purge y RM
manualmente y esas cosas .... VEan lo que respondió en su FORUM un
miembro del STAFF de Proxmox y efectivamente se puede ver que realmente
la particioon ESP aka /dev/sda2 en mi caso estan FULL los 512 MB y vean
tambien mi respeusta ahora mismo asi que por la diferencia horaria con
Alemania/Austria quizás yo tenga que esperar hasta mañana temprano por
mas instrucciones o la solución definitiva ....
*********************** Respuesta de PROXMOX STAFF via su FORUM
************************
Hi juanjfdez!
If the command to df -h /boot/efi shows how much space is left on the
ZFS rpool, then it probably means that /dev/sda2 nor /dev/sdb2 is not
mounted yet. This is as it should be to prevent any corruption
introduced by accidental writes or system crashes to this partition.
Could you temporarily mount both /dev/sda2 and /dev/sdb2 and post the
output of df -h and ls -lha on these? And if possible, could you provide
the output of dpkg -l | grep kernel and a more detailed error messages
when running the above mentioned commands (purge, init, ...)?
I guess/suspect that the system has many kernels from different series
(e.g. 5.13, 5.15, 6.4, 6.8, ...) installed, which are all kept at the
moment and not marked as "auto-removable" [0], which fills up the ESP
partition quite a lot.
[0]
https://git.proxmox.com/?p=proxmox-kernel-helper.git;a=blob;f=src/proxmox-boot/functions;h=a650c6fa112886d7d8042c73e0ee3a0ab5218e20;hb=refs/heads/master#l20
****************** Mi respuesta al tal Daniel de PROXMOX
**************************
Thanks Daniel for the prompt reply despite the timezones difference.
this is the info you ask (now before I do anything):
root@nest:~# df -h /dev/sda2
Filesystem Size Used Avail Use% Mounted on
udev 16G 0 16G 0% /dev
root@nest:~# df -h /dev/sdb2
Filesystem Size Used Avail Use% Mounted on
udev 16G 0 16G 0% /dev
root@nest:~# df -h /boot/efi
Filesystem Size Used Avail Use% Mounted on
rpool/ROOT/pve-1 857G 20G 838G 3% /
Yep , Now After I mounted sda2 it confirms it is 512 MB full.
root@nest:~# df -h /dev/sda2
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 511M 511M 0 100% /boot/efi
root@nest:~# ls -lah /dev/sda2
brw-rw---- 1 root disk 8, 2 Nov 17 21:06 /dev/sda2
And Yep the next is consistent with what systemd-boot-tool was
reporting: (although I thought I would see more old kernels?)
root@nest:~# ls -lah /boot/efi
total 290M
drwxr-xr-x 5 root root 4.0K Dec 31 1969 .
drwxr-xr-x 5 root root 43 Nov 19 20:22 ..
drwxr-xr-x 6 root root 4.0K Dec 17 2020 EFI
drwxr-xr-x 5 root root 4.0K Nov 23 2023 grub
-rwxr-xr-x 1 root root 58M Nov 23 2023 initrd.img-6.2.16-19-pve
-rwxr-xr-x 1 root root 58M Nov 23 2023 initrd.img-6.5.11-4-pve
-rwxr-xr-x 1 root root 58M Jul 27 13:02 initrd.img-6.5.13-6-pve
-rwxr-xr-x 1 root root 58M Aug 31 12:43 initrd.img-6.8.12-1-pve
drwxr-xr-x 3 root root 4.0K Sep 19 11:32 loader
-rwxr-xr-x 1 root root 13M Oct 24 2023 vmlinuz-6.2.16-19-pve
-rwxr-xr-x 1 root root 13M Nov 20 2023 vmlinuz-6.5.11-4-pve
-rwxr-xr-x 1 root root 13M Jul 26 08:34 vmlinuz-6.5.13-6-pve
-rwxr-xr-x 1 root root 14M Aug 5 12:17 vmlinuz-6.8.12-1-pve
-rwxr-xr-x 1 root root 0 Nov 17 20:35 vmlinuz-6.8.12-2-pve
-rwxr-xr-x 1 root root 8.2M Sep 16 15:32 vmlinuz-6.8.8-4-pve
Now as per your request I will UnMount /devsda2 and then try to mount
/dev/sdb2 but probably because I had FORMAT it earlier then it wont
mount or show anything yet I guess ... and Yep , as expected it shows
nothing or shows almost empty as I could not complete the INIT
subcommand the other day ....
root@nest:~# df -h /dev/sdb2
Filesystem Size Used Avail Use% Mounted on
/dev/sdb2 511M 12K 511M 1% /boot/efi
root@nest:~# ls -lah /boot/efi
total 17K
drwxr-xr-x 3 root root 4.0K Dec 31 1969 .
drwxr-xr-x 5 root root 43 Nov 19 20:22 ..
drwxr-xr-x 3 root root 4.0K Nov 19 20:47 EFI
The next is the CURRENT output of dpkg kernel ... just the portion with
only kernel stuff ... As you can see I had already tried to purge
6.5.11-1 and 5.4.73-1 therefore they are marked for removal I guess
ii proxmox-default-kernel 1.1.0
all Default Proxmox Kernel Image
ii proxmox-kernel-6.5 6.5.13-6 all
Latest Proxmox Kernel Image
rH proxmox-kernel-6.5.11-1-pve 6.5.11-1
amd64 Proxmox Kernel Image
iF proxmox-kernel-6.5.11-2-pve 6.5.11-2
amd64 Proxmox Kernel Image
iF proxmox-kernel-6.5.11-3-pve 6.5.11-3
amd64 Proxmox Kernel Image
ii proxmox-kernel-6.5.13-6-pve-signed
6.5.13-6 amd64 Proxmox Kernel Image
(signed)
iU proxmox-kernel-6.8 6.8.12-4 all
Latest Proxmox Kernel Image
ii proxmox-kernel-6.8.12-1-pve-signed
6.8.12-1 amd64 Proxmox Kernel Image
(signed)
iF proxmox-kernel-6.8.12-2-pve-signed
6.8.12-2 amd64 Proxmox Kernel Image
(signed)
iF proxmox-kernel-6.8.12-4-pve-signed
6.8.12-4 amd64 Proxmox Kernel Image
(signed)
ii proxmox-kernel-6.8.8-4-pve-signed
6.8.8-4 amd64 Proxmox Kernel Image
(signed)
ii proxmox-kernel-helper 8.1.0
all Function for various kernel maintenance tasks.
ii pve-firmware 3.14-1 all Binary
firmware code for the pve-kernel
ii pve-kernel-5.13.19-2-pve 5.13.19-4
amd64 The Proxmox PVE Kernel Image
rc pve-kernel-5.15.53-1-pve 5.15.53-1
amd64 Proxmox Kernel Image
ii pve-kernel-5.4 6.4-4 all
Latest Proxmox VE Kernel Image
ii pve-kernel-5.4.119-1-pve 5.4.119-1
amd64 The Proxmox PVE Kernel Image
ii pve-kernel-5.4.124-1-pve 5.4.124-1
amd64 The Proxmox PVE Kernel Image
rH pve-kernel-5.4.73-1-pve 5.4.73-1
amd64 The Proxmox PVE Kernel Image
rc pve-kernel-helper 7.3-6 all
Function for various kernel maintenance tasks.
Now this is the error I get when I try the INIT subcommand on the NOW
UNMOUNTED /dev/sdb2
root@nest:~# proxmox-boot-tool init /dev/sdb2
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount namespace..
UUID="F8F3-6927" SIZE="536870912" FSTYPE="vfat"
PARTTYPE="c12a7328-f81f-11d2-ba4b-00a0c93ec93b" PKNAME="sdb" MOUNTPOINT=""
Mounting '/dev/sdb2' on '/var/tmp/espmounts/F8F3-6927'.
Installing systemd-boot..
E: bootctl is not available - make sure systemd-boot is installed
Now I will post the error message I get when I try to do a simple apt
command that involves rebuilding kernel stuff, say apt upgrade -y and
Thanks so Much for the help BTW. I will be waiting for more
instructions. Cheers JJ
PS: Kernel 5.4.73-1-pve is still marked for removal because 2 days ago I
tried apt purge (that package)
root@nest:~# apt upgrade -y
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
Calculating upgrade... Done
The following packages will be REMOVED:
pve-kernel-5.4.73-1-pve
The following NEW packages will be installed:
libpve-network-api-perl
The following packages will be upgraded:
ifupdown2 libjs-extjs libpve-access-control libpve-cluster-api-perl
libpve-cluster-perl libpve-common-perl libpve-guest-common-perl
libpve-network-perl libpve-notify-perl libpve-rs-perl libpve-storage-perl
proxmox-backup-client proxmox-backup-file-restore proxmox-firewall
proxmox-mail-forward proxmox-ve proxmox-widget-toolkit pve-cluster
pve-container pve-docs pve-firewall pve-ha-manager pve-i18n pve-manager
qemu-server
25 upgraded, 1 newly installed, 1 to remove and 0 not upgraded.
8 not fully installed or removed.
Need to get 21.1 MB/138 MB of archives.
After this operation, 284 MB disk space will be freed.
Get:1 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 libpve-rs-perl amd64 0.9.0 [2,799 kB]
Get:2 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 libpve-storage-perl all 8.2.9 [146 kB]
Get:3 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 pve-firewall amd64 5.1.0 [75.2 kB]
Get:4 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 qemu-server amd64 8.3.0 [289 kB]
Get:5 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 pve-ha-manager amd64 4.0.6 [65.6 kB]
Get:6 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 pve-docs all 8.3.1 [15.6 MB]
Get:7 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 pve-i18n all 3.3.1 [412 kB]
Get:8 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 pve-manager all 8.3.0 [548 kB]
Get:9 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 libpve-network-perl all 0.10.0 [36.5 kB]
Get:10 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 libpve-network-api-perl all 0.10.0
[13.7 kB]
Get:11 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 proxmox-firewall amd64 0.6.0 [1,042 kB]
Get:12 http://download.proxmox.com/debian/pve
bookworm/pve-no-subscription amd64 proxmox-ve all 8.3.0 [5,228 B]
Fetched 21.1 MB in 1s (16.2 MB/s)
apt-listchanges: Reading changelogs...
(Reading database ... 177525 files and directories currently installed.)
Removing pve-kernel-5.4.73-1-pve (5.4.73-1) ...
Examining /etc/kernel/postrm.d.
run-parts: executing /etc/kernel/postrm.d/initramfs-tools 5.4.73-1-pve
/boot/vmlinuz-5.4.73-1-pve
update-initramfs: Deleting /boot/initrd.img-5.4.73-1-pve
run-parts: executing /etc/kernel/postrm.d/proxmox-auto-removal
5.4.73-1-pve /boot/vmlinuz-5.4.73-1-pve
run-parts: executing /etc/kernel/postrm.d/zz-proxmox-boot 5.4.73-1-pve
/boot/vmlinuz-5.4.73-1-pve
Re-executing '/etc/kernel/postrm.d/zz-proxmox-boot' in new private mount
namespace..
Copying and configuring kernels on /dev/disk/by-uuid/1808-B094
Copying kernel and creating boot-entry for 6.5.13-6-pve
Copying kernel and creating boot-entry for 6.8.12-1-pve
Copying kernel and creating boot-entry for 6.8.12-2-pve
mkdir: cannot create directory
‘/var/tmp/espmounts/1808-B094/EFI/proxmox/6.8.12-2-pve’: No space left
on device
run-parts: /etc/kernel/postrm.d/zz-proxmox-boot exited with return code 1
Failed to process /etc/kernel/postrm.d at
/var/lib/dpkg/info/pve-kernel-5.4.73-1-pve.postrm line 14.
dpkg: error processing package pve-kernel-5.4.73-1-pve (--remove):
installed pve-kernel-5.4.73-1-pve package post-removal script
subprocess returned error exit status 1
dpkg: too many errors, stopping
Errors were encountered while processing:
pve-kernel-5.4.73-1-pve
Processing was halted because there were too many errors.
E: Sub-process /usr/bin/dpkg returned an error code (1)
On 11/21/2024 11:05 AM, Daniel Enrique Martínez Cabrera (dany2cuba89) wrote:
El problema que describes parece estar relacionado con un
almacenamiento específico que no tiene suficiente espacio disponible,
aunque el resto del sistema sí lo tiene. En este caso, el error hace
referencia al directorio /var/tmp/espmounts/1808-B094, lo cual indica
que el problema podría estar en la partición EFI (generalmente montada
en /boot/efi o similar).
Diagnóstico y solución del problema
1. Verifica el espacio en la partición EFI
Ejecuta el siguiente comando para confirmar si la partición EFI tiene
espacio disponible:
df -h /boot/efi
Si ves que está llena, ahí está el origen del problema.
2. Limpia archivos innecesarios en EFI
La partición EFI suele tener un espacio muy limitado (normalmente
100-500 MB). Si está llena, es posible que tenga entradas antiguas o
redundantes que se puedan eliminar. Inspecciona el contenido:
ls -lh /boot/efi/EFI
Busca directorios de kernels antiguos (por ejemplo,
proxmox/versión-vieja) y elimínalos cuidadosamente:
sudo rm -rf /boot/efi/EFI/proxmox/versión-vieja
3. Verifica si el montaje es correcto
Asegúrate de que la partición EFI esté correctamente montada. Usa:
mount | grep /boot/efi
Si no está montada, intenta montarla manualmente:
sudo mount /boot/efi
4. Aumenta el tamaño de la partición EFI (opcional)
Si sigues teniendo problemas recurrentes con espacio, considera
redimensionar la partición EFI. Esto requiere herramientas como
gparted o el uso de parted. Asegúrate de respaldar tus datos antes de
intentar redimensionar.
5. Reconfigura los paquetes pendientes
Una vez resuelto el problema de espacio, reconfigura los paquetes que
fallaron:
sudo dpkg --configure -a
sudo apt-get install -f
6. Regenera los archivos de arranque
Si has eliminado kernels antiguos o corregido espacio, fuerza la
regeneración de los archivos de arranque:
proxmox-boot-tool refresh
7. Reintenta el proceso de actualización
Finalmente, intenta nuevamente el proceso de actualización:
sudo apt update && sudo apt upgrade
Notas adicionales
La raíz del problema puede estar en la cantidad de kernels instalados
o en la acumulación de datos en /boot/efi. Mantén solo los kernels
necesarios.
Si el problema persiste tras aplicar estos pasos, comparte el
resultado de los comandos df -h, lsblk, y sudo du -sh /boot/efi para
un análisis más detallado.
El mar, 19 nov 2024, 21:19, Juan J. Fernandez <juanjf...@yandex.com>
escribió:
Nota: Le hice un proxmox-boot-tool FORMAT a /dev/sdb2 pero no me
deja hacerle INIT !!! para poder SYNCH los ESP con el subcomando
REFRESH. Vean la trova explicativa y agradeceré mas info o
sugerencis.
Buenas noches, en la documentación de Proxmox online en Host
Bootloader en :
https://pve.proxmox.com/wiki/Host_Bootloader#sysboot_proxmox_boot_tool
Realmente explican muchos subcomandos de ese boot tool y explican
como FORMAT e INIT precisamente esas 2 particiones que PROXMOX
crea , la sda1 para sistemas cuando bootean por BIOS o sea para
GRUB y las sda2 para sistemas como el mio que usualmente lo boten
por UEFI o sea la partición /boot/efi o EFI para systemd-boot
En fin, me subió el loco Y A PESAR REALMENTE ESAS PARTICIONES AUN
ESTAN mounted y live decidi pasarles el parametro —force para
forzar el format pero por suerte solo lo he hecho en la /dev/sdb2
O sea este sistema originalmente al ser 2 discos de 1 TB en modo
ZFS entonces proxmox crea o participan ambos discos igualitos ,
por ende supuestamente sda2 y sdb2 deben ser exactamente iguales
sus contenidos solo que los UUID son distintos claro .
en fin , le di el comando proxmox-boot-tool format /dev/sdb2
—force ……. y eso evidentemente formato ese sistema de fichero
de tipo VFAT de 512 MB. El problema es que al parecer el le asigna
un NUEVO UUID AL ESP ESE pero eso n debe ser problema puesto que
supuestamente el comando subcomando INIT debe inicializar esa
partición y reconfigurarla apropiadamente y supuestamente despues
el subrogando REFRESH debe copiar lso kernels o ficheros vmlix y
init-rd adecuados adentro de esa nueva partición sdb2 forrajeada no?
El asunto es que cuando hago el INIT con proxmox-boot-tool INIT
/dev/sdb2. ….. me da el error de que no encuentra bootctl y dice
que como que este sistema no es systemd-boot? lo cual me llamó la
atención pues supuestamente este sistema botes UEFI y via systemd-boot
root@nest:/boot# proxmox-boot-tool init /dev/sdb2
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount
namespace..
UUID="F8F3-6927" SIZE="536870912" FSTYPE="vfat"
PARTTYPE="c12a7328-f81f-11d2-ba4b-00a0c93ec93b" PKNAME="sdb"
MOUNTPOINT=""
Mounting '/dev/sdb2' on '/var/tmp/espmounts/F8F3-6927'.
Installing systemd-boot..
E: bootctl is not available - make sure systemd-boot is installed
Decidi hacer un apt list systemd-boot y realmente me dice que so n
esta instalado por ende decidi instalarlo a ver si ya con eso
aparece el saldo bootctl ese para poder hacer el INIT por ende lo
intenté instalar con :
apt install systemd-boot
pero por supuesto el sistema o apt ese nunca puede instalar nada
pues da el error de que no space left on device pues no puede
reconfigurarlo los kernels .
en oras palabras vuelvo a trabarme y aun no he hecho un reboot
aunque me parece aunque ya yo haya formateado /dev/sdb2 realmente
el sistema debe ser capaz de botera directo por /dev/sda2 o sea LA
PARTICION EFI en el primer disco
or ende , pregunto , SIN AUMENTAR LOS 512 MB DE ESAS PARTICIONES
SDA2 Y SDB2 que puedo hacer para lograr formatearlas e
inicializarlas pues me parece que si yo no logro INIT entonces no
puedo hacer el sublimando REFRESH que es el equivalente a
update-grub en un sistema BIOS clásico que usa GRUB2
Realmente en los foros o documentales o google no encuentro mas
respuestas
Cheers
JJ
On Nov 16, 2024, at 12:53 PM, Erki Polo Manresa
<erkip...@gmail.com> wrote:
Disculpa si lo que voy ha plantear suena estúpido o algo así,
pero ...
Has pensado en lugar de eliminar kernels, ampliar el espacio de la
partición que los contiene?
Saludos,
--
Erki Polo Manresa
Formas de Contacto:
Oficina: (+53)(7)8015198
Móvil: (+53)(5)1322373
Correo: erkip...@gmail.com
El sáb, 16-11-2024 a las 12:01 -0500, Juan J. Fernandez escribió:
Nota: Parece el bateo es que la particion /dev/sda2 y /dev/sdb2 de
512 MB está ya llena de kernels y initramfs y cosas viejas ! (a
pesar
yo uso regularmente apr autoremove --purge) pues mi sistema usa
systemd-boot como bootloader en modo EFI
Buenas Noches , nope, Ulises , le copié una MKV video de un juego
pelota liga NPB via scp desde mi Windows directo a ese /var/tmp sin
lio . despues incluso cree un directorio ahi en /var/tmp sin lio
, le
hize cp de ese mkv a ese directorio sin lio , cree otro directorio
mas adentro llamado igualito al que da bateo que n oexiste y lo creó
sin problema , le hice un cp a la peli hacia adentro de ese nuev
odirectorio alla adentro de /var/tmp y sin lio , por ende tiene
las 3
pelis o copisa de 2 GB de esos videos como 6 u 8 GB en total y sin
lio .
Realmente cuando el rranca el journal dice que el sistema de
ficheros esta perfecto sin lio asi que n ocreo sea corrupcion del
sistema de ficheros por eso no he regresado a single user mode para
hacer e2fssck
Tampoco hay quotas por ningun lado del ZFS ese. el comando zfs list
lista todo bien , y el comando zfs get quota en varios de esos tipos
de zfs listados ninguno tiene quota tampoco , asi que no es eso ,
ademas realmemente se comio 6 GB en video asi que no creo sea bateo
de quota.
El problema me parece realmente es que efectivamente por alguna
razon la particion /dev/sda2 y /dev/sdb2 de 512 MB de tipo vFAT que
es la dedicada para el bootloader de systemd-boot imagino que ese
DEVICE storage es el que está lleno pero no logro ver forma de como
limpiarlo o sea quitarle kernels viejos y cosas asi .
Yo realmente pensaba que mi viejo sistema R610 llamado nest
como era
EFI con ZFS realmente usaba GRUB2 como bootloader PERO REALMENTE USA
el mas moderno systemd-boot que ya veo es l oque implementa por
defecto PROXMOX cuando no se usa Secure Boot como en mi caso . Vean
la salida del comando efimngr -v lo que dice en el Boot0005 que
es el
Current
Boot0005* Linux Boot Manager HD(2,GPT,75d8b578-3b18-4b80-bdb1-
e4b6c5bfd3bb,0x800,0x100000)/File(\EFI\systemd\systemd-bootx64.efi)
el comando para manipular el bootloader en sistemas PROXMOX que
usan
systemd-boot es ... y vean lo que dice su status y vean la retraila
de kernels que tiene definidos o en su interior por gusto me parece
peus supeustamente los eternos y persistentes y repititivos comandos
apr autoremove --purge que yo regularmente hago debieron habr
quitado
muchos de esos me imagino
root@nest:~# proxmox-boot-tool status
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount
namespace..
System currently booted with uefi
1808-B094 is configured with: uefi (versions: 6.5.13-6-pve, 6.8.12-
1-pve, 6.8.8-4-pve), grub (versions: 6.2.16-19-pve, 6.5.11-4-pve,
6.5.13-6-pve, 6.8.12-1-pve, 6.8.8-4-pve)
1809-F012 is configured with: uefi (versions: 6.5.13-6-pve, 6.8.12-
1-pve, 6.8.8-4-pve), grub (versions: 6.2.16-19-pve, 6.5.11-4-pve)
Lo otro que no entiendo es donde está ese 1809-F012 puesto que
en el
directorio /var/tmp/espmounts solo aparece listado el 1808-B094 como
directorio y vean el comando que meustra la lista de kernels
configurados y por ende manualmente no hay ninguno y los 4 que
aparecen son los que son . 12-1 es el running kernel aun pues 12-2 y
12-4 han estado a la espera de que deje de dar ese error de No space
on device que me imagin oquiere decir que en esa particion de 512 MB
/dev/sda2 y /dev/sdb2 ya no hay espacio suficiente parece
root@nest:~# proxmox-boot-tool kernel list
Manually selected kernels:
None.
Automatically selected kernels:
6.5.13-6-pve
6.8.12-1-pve
6.8.12-2-pve
6.8.12-4-pve
Con el comando kernel remove de ahi no puedo quitar nada para
liberar espacio peus en Manual kernels no hay nada y en la
documentacion oficial de Proxmox del Host Bootloader no veo
expliquen
como liberar espacio en Host Bootloader - Proxmox VE
Asi que no veo forma como liberar espacio de esos 512 MB pues no
creo que dstruir 1 de las 2 particiones y despues darle el comando
refresh o darle init por ejemplo a /dev/sdb2 vaya a resolver algo
Pero me parece que ese /dev/sdb2 de 512 MB es el del bateo o sea
esta ya lleno de kernel y initrd images y demás peus ahi es donde se
almacenan esos kernels para el arranque . ESte Dell R610
realmente yo
a vecez l ohe arrancado en modo EFI y a vecez en Modo BIOS por ende
realmente el cuando en el System BIOS le tengo puesto que arranque
por UEFI el por supuesto arranca con la clasica pantalla negra y
pocas letras balncas del bootloader de Proxmox que lista 2
kernels en
mi caso solamente pro cierto y ese es el metodo de systemd-boot pero
sy le pongo use modo BIOS entonces la pantalla del arranque es la
clasica azul que lista varios menus y ese es el el bootloader de
tipo
GRUB2 pero ese no recuerdo tampoco liste muchos kernels ni la cabeza
del guanajo como para que ese haya llenado los 512 MB me parece .
Peor si definitivamente ese comando proxmox-boot-tool fué el que yo
siguiendo un blog para resolver o implementar el GPU PCI PASSthrough
useé n ohace mucho y posiblemente despues de eso es que me empezó a
dar este bateo seguramente , ahora lo que no recuerdo cual fue el
comando total que yo usé jejejejej , hmmm dejame echarle para atras
en root a los comandos a ver ?????? , nope , demasiado atras ene l
tiempo pero buscando en mis favoritos del browser ya veo lso
comandos
que use fue simplemente ese proxmox-boot-tool refresh y el clasico
update-initramfs -u -k all y so sol ofue fúe porque tuve que agregar
ciertos parametros a la config de lso modulos del kernel asi que eso
nopuede llenar esa particion de 512 MB.
Lo otro es que realmente todo eso se have en unos GUI UUID
dentro de
/dev/disk que segun el comando mount es un udev de esos que el
sistema de fichero es de tipo devtmpfs pero en teoria segun zfs
list ese /dev realmente stá aentro de la raiz / asi que n odebe ser
ese el io peus hay espacio suficiente ahi .
La pregunta Ulyses es entonces , como yo libero espacio en esas2
particiones de lso 2 discos inicioles que estan en mirror de 1 TB
cada uno /dev/sda2 y ese /dev/sdb2 (ojo , el segundo mirror que yo
adicione de 2 discos mas de 1 TB con el comando zpool add rpool
mirror o similar no está partyicionado asi pero me parece tampoco le
hace falta pues ese segundo mirror es solo una extension del mirror
para agregar espacio de data) . acaso tengo que hacer eso via
comandos gparted y reconfigurar esas 3 particiones iniciales? ??? ,
no me parece puesto que voy a afectar la data ya grabada ahi digo yo
!!!! o com ome met oyo dentro de esa particion y elimino kernels e
initramfs viejos ?????
Lamentablemente el comando proxmox-boot-tool estos salaos de
PROXMOX
no le han hecho un manual o info que diga todos lso subcomandos que
posee y en su docu solo hablan de refersh y list y status y add
y pin
y unpin y remove y eso pero esos solo remove los kernels que hayan
sido instalados manualmente
Lo otro es que quizas en modo BISO el GRUB2 ese si tenga muchos
kernels viejos quizas pero realmente segun entiendo yo eso esta
almacenado solo en la particion /dev/sda1 de apenas 1 MB que es la
que usa BIOS y GRUB2 ypor ende eso no tiene nada que ver con lo que
sta sucediendo que es via EFI y systemd-boot
Ya a esta hora y oesas pelis MKV de 2GB las eliminé de nuev o de
esos directorios dentro de /var/tmp por cierto.
Agradeceré mas consejos y punteros a como liberar espacio en esas
particiones de 512 MB de tipo vFAT segun lsblk . Vean ....
root@nest:~# findmnt /
TARGET SOURCE FSTYPE OPTIONS
/ rpool/ROOT/pve-1 zfs rw,relatime,xattr,noacl,casesensitive
root@nest:~# lsblk -o +FSTYPE
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS FSTYPE
sda 8:0 0 931.5G 0 disk
├─sda1 8:1 0 1007K 0 part
├─sda2 8:2 0 512M 0 part vfat
└─sda3 8:3 0 931G 0 part zfs_member
sdb 8:16 0 931.5G 0 disk
├─sdb1 8:17 0 1007K 0 part
├─sdb2 8:18 0 512M 0 part vfat
└─sdb3 8:19 0 931G 0 part zfs_member
sdc 8:32 0 931.5G 0 disk
├─sdc1 8:33 0 931.5G 0 part zfs_member
└─sdc9 8:41 0 8M 0 part
sdd 8:48 0 931.5G 0 disk
├─sdd1 8:49 0 931.5G 0 part zfs_member
└─sdd9 8:57 0 8M 0 part
Cheers
JJ
On 11/15/2024 7:20 PM, Ulises Gonzalez Horta wrote:
On 2024-11-15 18:40, Juan J. Fernandez wrote:
Sorry olvidé poner la salida de DF -H y vean com odecia todo esta
al 2% con espacio libre de sobra excepto EFIVARS pero eso no es
lo que da bateo .
root@nest:~# df -h
Filesystem Size Used Avail Use% Mounted on
udev 16G 0 16G 0% /dev
tmpfs 3.2G 2.5M 3.2G 1% /run
rpool/ROOT/pve-1 857G 17G 841G 2% /
tmpfs 16G 45M 16G 1% /dev/shm
tmpfs 5.0M 4.0K 5.0M 1% /run/lock
efivarfs 64K 39K 21K 65%
/sys/firmware/efi/efivars
rpool 841G 128K 841G 1% /rpool
rpool/ROOT 841G 128K 841G 1% /rpool/ROOT
rpool/data 841G 128K 841G 1% /rpool/data
rpool/data/subvol-102-disk-0 500G 5.6G 495G 2%
/rpool/data/subvol-102-disk-0
rpool/data/subvol-101-disk-1 500G 2.4G 498G 1%
/rpool/data/subvol-101-disk-1
rpool/data/subvol-104-disk-0 250G 3.3G 247G 2%
/rpool/data/subvol-104-disk-0
rpool/data/subvol-103-disk-0 100G 3.9G 97G 4%
/rpool/data/subvol-103-disk-0
rpool/data/subvol-105-disk-0 250G 4.4G 246G 2%
/rpool/data/subvol-105-disk-0
rpool/data/subvol-107-disk-0 500G 17G 484G 4%
/rpool/data/subvol-107-disk-0
rpool/data/subvol-106-disk-0 350G 11G 340G 4%
/rpool/data/subvol-106-disk-0
rpool/data/subvol-108-disk-0 500G 623M 500G 1%
/rpool/data/subvol-108-disk-0
rpool/data/subvol-109-disk-0 250G 1.4G 249G 1%
/rpool/data/subvol-109-disk-0
/dev/fuse 128M 84K 128M 1% /etc/pve
tmpfs 3.2G 0 3.2G 0% /run/user/0
De acuredo a esta salida /tmp y /var/tmp son parte de / y espacio
tienes
Lo otro que se me ocurre es que haya corrupcion en el FS
Prueba escribir un archivo de 1G o mas en /var/tmp a ver que
pasa, si te da error o algo.
Si te da error te toca correr fsck pero como es parte de root vas
a tener que reiniciar en single user o hacerlo desde un live CD
La otra estupidez que me viene a la mente viendo que es un rpool
, no tendra alguna quota??
--
Salu2, Ulinx
"En un problema con n ecuaciones
siempre habrá al menos n+1 incógnitas"
Linux user 366775
Visita mi tienda de electronica
https://www.solucionesenelectronicacuba.com
Quieres saber de Cuba o visitar Cuba, revisa mi canal Youtube (en
español) http://bit.ly/Alocubano
_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu
_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu
_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu
_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu