Gracias a ambos por la pronta respuesta. Efectivamente  eso mismo vi yo de /var/tmp y realmente hay mas que espacio suficiente y casi no se usa nada de ese espacio . /var/tmp DU dice solo usa muy poco y realmente no hay una particion dedicada o montada para /var/tmp especificamente que sea pequeña ni mucho menos. Esto no usa systemd-boot por cierto , esto creo es solo el clasico GRUB2.

root@nest:~# ls -lah /var/tmp/espmounts
total 26K
drwxr-xr-x 3 root root 3 Sep 16 15:31 .
drwxrwxrwt 6 root root 7 Nov 15 17:38 ..
drwxr-xr-x 2 root root 2 Sep 16 15:31 1808-B094
root@nest:~# du -h /var/tmp/espmounts/1808-B094
512     /var/tmp/espmounts/1808-B094
root@nest:~# ls -lah /var/tmp/espmounts/1808-B094
total 1.0K
drwxr-xr-x 2 root root 2 Sep 16 15:31 .
drwxr-xr-x 3 root root 3 Sep 16 15:31 ..
root@nest:~# du -h /var/tmp/espmounts
512     /var/tmp/espmounts/1808-B094
1.0K    /var/tmp/espmounts

Vean lo que muestra MOUNT y vean que realmente la raiz / esta en rpool/ROOT/pve-1 que el filesystem es de tipo zfs y no hay nada especial para /var/tmp me parece. Esto es un PVE proxmox clasico sin trueque .... bueno si .... realmente nest fue mi primero y yo le eliminé el LVM Thin Pool que por defecto el instalador creó y lo hice un LVM sato

root@nest:~# mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,relatime)
udev on /dev type devtmpfs (rw,nosuid,relatime,size=16390924k,nr_inodes=4097731,mode=755,inode64) devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000) tmpfs on /run type tmpfs (rw,nosuid,nodev,noexec,relatime,size=3284808k,mode=755,inode64)
rpool/ROOT/pve-1 on / type zfs (rw,relatime,xattr,noacl,casesensitive)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev,inode64)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k,inode64)
cgroup2 on /sys/fs/cgroup type cgroup2 (rw,nosuid,nodev,noexec,relatime)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
efivarfs on /sys/firmware/efi/efivars type efivarfs (rw,nosuid,nodev,noexec,relatime)
bpf on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=30,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=13289)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)
debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime)
tracefs on /sys/kernel/tracing type tracefs (rw,nosuid,nodev,noexec,relatime) fusectl on /sys/fs/fuse/connections type fusectl (rw,nosuid,nodev,noexec,relatime) configfs on /sys/kernel/config type configfs (rw,nosuid,nodev,noexec,relatime) ramfs on /run/credentials/systemd-sysusers.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700) ramfs on /run/credentials/systemd-tmpfiles-setup-dev.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700) ramfs on /run/credentials/systemd-sysctl.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700)
rpool on /rpool type zfs (rw,noatime,xattr,noacl,casesensitive)
rpool/ROOT on /rpool/ROOT type zfs (rw,noatime,xattr,noacl,casesensitive)
rpool/data on /rpool/data type zfs (rw,noatime,xattr,noacl,casesensitive)
rpool/data/subvol-102-disk-0 on /rpool/data/subvol-102-disk-0 type zfs (rw,noatime,xattr,posixacl,casesensitive) rpool/data/subvol-101-disk-1 on /rpool/data/subvol-101-disk-1 type zfs (rw,noatime,xattr,posixacl,casesensitive) rpool/data/subvol-104-disk-0 on /rpool/data/subvol-104-disk-0 type zfs (rw,noatime,xattr,posixacl,casesensitive) rpool/data/subvol-103-disk-0 on /rpool/data/subvol-103-disk-0 type zfs (rw,noatime,xattr,posixacl,casesensitive) rpool/data/subvol-105-disk-0 on /rpool/data/subvol-105-disk-0 type zfs (rw,noatime,xattr,posixacl,casesensitive) rpool/data/subvol-107-disk-0 on /rpool/data/subvol-107-disk-0 type zfs (rw,noatime,xattr,posixacl,casesensitive) rpool/data/subvol-106-disk-0 on /rpool/data/subvol-106-disk-0 type zfs (rw,noatime,xattr,posixacl,casesensitive) rpool/data/subvol-108-disk-0 on /rpool/data/subvol-108-disk-0 type zfs (rw,noatime,xattr,posixacl,casesensitive) rpool/data/subvol-109-disk-0 on /rpool/data/subvol-109-disk-0 type zfs (rw,noatime,xattr,posixacl,casesensitive) ramfs on /run/credentials/systemd-tmpfiles-setup.service type ramfs (ro,nosuid,nodev,noexec,relatime,mode=700) binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,nosuid,nodev,noexec,relatime)
sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other) /dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other) tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,size=3284804k,nr_inodes=821201,mode=700,inode64)

Vean ZPOOL reporta que todo esta bien y ya es casi 2 GB y realmente se usa el 51% solamente com oera de esperar despeus de haber yo agregado 2 discos de 1 TB en mirror

root@nest:~# zpool list
NAME    SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP DEDUP    HEALTH  ALTROOT rpool  1.81T   958G   898G        -         -    17%    51% 1.00x    ONLINE  -

root@nest:~# zpool status
  pool: rpool
 state: ONLINE
  scan: scrub repaired 0B in 02:45:53 with 0 errors on Sun Nov 10 03:09:54 2024
config:

        NAME                                 STATE     READ WRITE CKSUM
        rpool                                ONLINE       0 0     0
          mirror-0                           ONLINE       0 0     0
            ata-ST91000640NS_9XG6KJYY-part3  ONLINE       0 0     0
            ata-ST91000640NS_9XG6K62R-part3  ONLINE       0 0     0
          mirror-1                           ONLINE       0 0     0
            sdc                              ONLINE       0 0     0
            sdd                              ONLINE       0 0     0

A mi me parece , hace poco , yo sighuiendo un blog de algo que no recuerdo , me parece era algo de como hacer PCI-Passthorugh , es muy probable que yo haya usado algun comando relativo a crear o reconfigurar el boot image con el comando proxmox-boot-systemd o algo asi parecido pues ya ni me acuerdo A PESAR ESTO ES simple update-grub todo , pero no creo eso haya creado este bateo o quizas si ?????. Me parece aquel comando no haya hech onada pues en mi caso es todo update-grub cuando uno quiere necesita reconfigurar el bootloader o parametros de arranque del kernel o como se llame

Ya me dirán ustedes y muchas gracias .

Cheers
JJ

On 11/15/2024 6:14 PM, Ulises Gonzalez Horta wrote:
On 2024-11-15 17:50, Juan J. Fernandez wrote:
Buenas noches, desde hace 2 o 3 upgrades no puedo hacerlos puesto que el apt upgrade al intentar mkdir y crear directorio y copiar ficheros parece gfalla diciendo no hay espacio en disco pero realmente si hay espacio !!!.

Y mas que suficiente, est oque ven es el proecso de apt upgrade en este host PVE llamado nest donde falla y por cierto los upgrade en todos los Linux containers y en las VM si funcionan perfecto y no dan ningun error.

En este host el disco duro y las particiones y todo tiene espacio mas que suficiente y para colmo yo cada vez que hago apt upgrade inmediatamente hago apt clean y apt autoremove --purge religiosdamente por ende los kernels viejos y todo yo lo elimino con ese comando asi que no pentiendo porque ahora esta diciendo esto de que ya no tiene espacio en disco suficiente. Vean el error mas abajo.

Comandos como du y df muestran realmente hay espacio, mount, particiones y lsblk demás también. De ehcho este host tenia 2 discos duros de 1 TB en zpool mirror y yo recientemente le agregué ioncluso 2 discos duros de 1 TB en tipo mirror o sea extendí el zpool que ahora es de 2 TB pues antes era 1 TB solamente. Y por todos lados el sistema dice que reconoce el storage agregado y todo ha sido extendido correctamente y demás. El device pve-root o montaje en / es de 100 GB y solo se usan 17 GB creo asi que hay espacio de sobra .

Asi que agradeceré si alguien tiene idea como resolver esto o como troubleshoot para percatarme cual es la raíz del problema.

Cheers

Hola, aqui la pregunta es cuanto espacio tienes en /var/tmp o en /tmp a veces uno es un montaje bind del otro u otras veces estan separados, pero tu problemas es ahi, no en root ni en ningun otro lado, lee el error y veras que se queja de /var/tmp/.............


_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu

Responder a