Gracias a ambos por la pronta respuesta. Efectivamente eso mismo vi yo
de /var/tmp y realmente hay mas que espacio suficiente y casi no se usa
nada de ese espacio . /var/tmp DU dice solo usa muy poco y realmente no
hay una particion dedicada o montada para /var/tmp especificamente que
sea pequeña ni mucho menos. Esto no usa systemd-boot por cierto , esto
creo es solo el clasico GRUB2.
root@nest:~# ls -lah /var/tmp/espmounts
total 26K
drwxr-xr-x 3 root root 3 Sep 16 15:31 .
drwxrwxrwt 6 root root 7 Nov 15 17:38 ..
drwxr-xr-x 2 root root 2 Sep 16 15:31 1808-B094
root@nest:~# du -h /var/tmp/espmounts/1808-B094
512 /var/tmp/espmounts/1808-B094
root@nest:~# ls -lah /var/tmp/espmounts/1808-B094
total 1.0K
drwxr-xr-x 2 root root 2 Sep 16 15:31 .
drwxr-xr-x 3 root root 3 Sep 16 15:31 ..
root@nest:~# du -h /var/tmp/espmounts
512 /var/tmp/espmounts/1808-B094
1.0K /var/tmp/espmounts
Vean lo que muestra MOUNT y vean que realmente la raiz / esta en
rpool/ROOT/pve-1 que el filesystem es de tipo zfs y no hay nada especial
para /var/tmp me parece. Esto es un PVE proxmox clasico sin trueque ....
bueno si .... realmente nest fue mi primero y yo le eliminé el LVM Thin
Pool que por defecto el instalador creó y lo hice un LVM sato
root@nest:~# mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,relatime)
udev on /dev type devtmpfs
(rw,nosuid,relatime,size=16390924k,nr_inodes=4097731,mode=755,inode64)
devpts on /dev/pts type devpts
(rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs
(rw,nosuid,nodev,noexec,relatime,size=3284808k,mode=755,inode64)
rpool/ROOT/pve-1 on / type zfs (rw,relatime,xattr,noacl,casesensitive)
securityfs on /sys/kernel/security type securityfs
(rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev,inode64)
tmpfs on /run/lock type tmpfs
(rw,nosuid,nodev,noexec,relatime,size=5120k,inode64)
cgroup2 on /sys/fs/cgroup type cgroup2 (rw,nosuid,nodev,noexec,relatime)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
efivarfs on /sys/firmware/efi/efivars type efivarfs
(rw,nosuid,nodev,noexec,relatime)
bpf on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs
(rw,relatime,fd=30,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=13289)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)
debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime)
tracefs on /sys/kernel/tracing type tracefs
(rw,nosuid,nodev,noexec,relatime)
fusectl on /sys/fs/fuse/connections type fusectl
(rw,nosuid,nodev,noexec,relatime)
configfs on /sys/kernel/config type configfs
(rw,nosuid,nodev,noexec,relatime)
ramfs on /run/credentials/systemd-sysusers.service type ramfs
(ro,nosuid,nodev,noexec,relatime,mode=700)
ramfs on /run/credentials/systemd-tmpfiles-setup-dev.service type ramfs
(ro,nosuid,nodev,noexec,relatime,mode=700)
ramfs on /run/credentials/systemd-sysctl.service type ramfs
(ro,nosuid,nodev,noexec,relatime,mode=700)
rpool on /rpool type zfs (rw,noatime,xattr,noacl,casesensitive)
rpool/ROOT on /rpool/ROOT type zfs (rw,noatime,xattr,noacl,casesensitive)
rpool/data on /rpool/data type zfs (rw,noatime,xattr,noacl,casesensitive)
rpool/data/subvol-102-disk-0 on /rpool/data/subvol-102-disk-0 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
rpool/data/subvol-101-disk-1 on /rpool/data/subvol-101-disk-1 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
rpool/data/subvol-104-disk-0 on /rpool/data/subvol-104-disk-0 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
rpool/data/subvol-103-disk-0 on /rpool/data/subvol-103-disk-0 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
rpool/data/subvol-105-disk-0 on /rpool/data/subvol-105-disk-0 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
rpool/data/subvol-107-disk-0 on /rpool/data/subvol-107-disk-0 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
rpool/data/subvol-106-disk-0 on /rpool/data/subvol-106-disk-0 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
rpool/data/subvol-108-disk-0 on /rpool/data/subvol-108-disk-0 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
rpool/data/subvol-109-disk-0 on /rpool/data/subvol-109-disk-0 type zfs
(rw,noatime,xattr,posixacl,casesensitive)
ramfs on /run/credentials/systemd-tmpfiles-setup.service type ramfs
(ro,nosuid,nodev,noexec,relatime,mode=700)
binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc
(rw,nosuid,nodev,noexec,relatime)
sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
lxcfs on /var/lib/lxcfs type fuse.lxcfs
(rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
/dev/fuse on /etc/pve type fuse
(rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
tmpfs on /run/user/0 type tmpfs
(rw,nosuid,nodev,relatime,size=3284804k,nr_inodes=821201,mode=700,inode64)
Vean ZPOOL reporta que todo esta bien y ya es casi 2 GB y realmente se
usa el 51% solamente com oera de esperar despeus de haber yo agregado 2
discos de 1 TB en mirror
root@nest:~# zpool list
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP
HEALTH ALTROOT
rpool 1.81T 958G 898G - - 17% 51% 1.00x
ONLINE -
root@nest:~# zpool status
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 02:45:53 with 0 errors on Sun Nov 10
03:09:54 2024
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-ST91000640NS_9XG6KJYY-part3 ONLINE 0 0 0
ata-ST91000640NS_9XG6K62R-part3 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 0
A mi me parece , hace poco , yo sighuiendo un blog de algo que no
recuerdo , me parece era algo de como hacer PCI-Passthorugh , es muy
probable que yo haya usado algun comando relativo a crear o reconfigurar
el boot image con el comando proxmox-boot-systemd o algo asi parecido
pues ya ni me acuerdo A PESAR ESTO ES simple update-grub todo , pero no
creo eso haya creado este bateo o quizas si ?????. Me parece aquel
comando no haya hech onada pues en mi caso es todo update-grub cuando
uno quiere necesita reconfigurar el bootloader o parametros de arranque
del kernel o como se llame
Ya me dirán ustedes y muchas gracias .
Cheers
JJ
On 11/15/2024 6:14 PM, Ulises Gonzalez Horta wrote:
On 2024-11-15 17:50, Juan J. Fernandez wrote:
Buenas noches, desde hace 2 o 3 upgrades no puedo hacerlos puesto que
el apt upgrade al intentar mkdir y crear directorio y copiar ficheros
parece gfalla diciendo no hay espacio en disco pero realmente si hay
espacio !!!.
Y mas que suficiente, est oque ven es el proecso de apt upgrade en
este host PVE llamado nest donde falla y por cierto los upgrade en
todos los Linux containers y en las VM si funcionan perfecto y no dan
ningun error.
En este host el disco duro y las particiones y todo tiene espacio mas
que suficiente y para colmo yo cada vez que hago apt upgrade
inmediatamente hago apt clean y apt autoremove --purge
religiosdamente por ende los kernels viejos y todo yo lo elimino con
ese comando asi que no pentiendo porque ahora esta diciendo esto de
que ya no tiene espacio en disco suficiente. Vean el error mas abajo.
Comandos como du y df muestran realmente hay espacio, mount,
particiones y lsblk demás también. De ehcho este host tenia 2 discos
duros de 1 TB en zpool mirror y yo recientemente le agregué ioncluso
2 discos duros de 1 TB en tipo mirror o sea extendí el zpool que
ahora es de 2 TB pues antes era 1 TB solamente. Y por todos lados el
sistema dice que reconoce el storage agregado y todo ha sido
extendido correctamente y demás. El device pve-root o montaje en / es
de 100 GB y solo se usan 17 GB creo asi que hay espacio de sobra .
Asi que agradeceré si alguien tiene idea como resolver esto o como
troubleshoot para percatarme cual es la raíz del problema.
Cheers
Hola, aqui la pregunta es cuanto espacio tienes en /var/tmp o en /tmp
a veces uno es un montaje bind del otro u otras veces estan separados,
pero tu problemas es ahi, no en root ni en ningun otro lado, lee el
error y veras que se queja de /var/tmp/.............
_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu