Bonjour. pytorch reconnaît les tpu et bien d'autres hardware pour ce type d'emploi. La solution de la carte graphique est juste la solution la plus simple à mettre en place.
-- Olivier aka Trak Unix-based "I am rookie. Because I'm not pro enough to build LFS". France Le lun. 30 juin 2025 à 00:41, didier gaumet <[email protected]> a écrit : > > > Bonjour Pierre, > > (je ne connais pas tout ça et j'ai juste jeté un oeil en diagonale, donc > tout ça sous réserves) > > A priori ce serait Pytorch qui aurait besoin des fonctions de calcul du > GPU pour des performances accrues. Et Pytorch semble capable d'accéder à > ces fonctions de calcul soit par CUDA (propriétaire, pour les cartes > Nvidia) soit par ROCm (a priori libre, pour les cartes AMD): > https://pytorch.org/get-started/locally/ > > Pour une carte Nvidia, le wiki Debian a un article mentionnant CUDA > (paragraphe 6 mais lis le reste avant): > https://wiki.debian.org/NvidiaGraphicsDrivers > > Pour les cartes AMD, le wiki Debian a une page sur ROCm, qui est a > priori majoritairement supporté nativement dans Debian à partir de > Trixie (avant il faudrait installer à partir d'upstream): > https://wiki.debian.org/ROCm > > donc tout ça semble te laisser des solutions bien en dessous des 1000€ > >

