Bonjour.

pytorch reconnaît les tpu et bien d'autres hardware pour ce type d'emploi.
La solution de la carte graphique est juste la solution la plus simple à
mettre en place.

-- 
Olivier aka Trak Unix-based
"I am rookie. Because I'm not pro enough to build LFS".
France

Le lun. 30 juin 2025 à 00:41, didier gaumet <[email protected]> a
écrit :

>
>
> Bonjour Pierre,
>
> (je ne connais pas tout ça et j'ai juste jeté un oeil en diagonale, donc
> tout ça sous réserves)
>
> A priori ce serait Pytorch qui aurait besoin des fonctions de calcul du
> GPU pour des performances accrues. Et Pytorch semble capable d'accéder à
> ces fonctions de calcul soit par CUDA (propriétaire, pour les cartes
> Nvidia) soit par ROCm (a priori libre, pour les cartes AMD):
> https://pytorch.org/get-started/locally/
>
> Pour une carte Nvidia, le wiki Debian a un article mentionnant CUDA
> (paragraphe 6 mais lis le reste avant):
> https://wiki.debian.org/NvidiaGraphicsDrivers
>
> Pour les cartes AMD, le wiki Debian a une page sur ROCm, qui est a
> priori majoritairement supporté nativement dans Debian à partir de
> Trixie (avant il faudrait installer à partir d'upstream):
> https://wiki.debian.org/ROCm
>
> donc tout ça semble te laisser des solutions bien en dessous des 1000€
>
>

Répondre à