ton pote oublie que du point de vue de quelqu’un qui s’y connait pas
bien, un LLM est capable de générer:
Mon pote n'oublie pas puisqu'il a bien précisé :
"LOL mais qui a cru ne serait-ce qu'une micro-seconde qu'un LLM pouvait
faire une VM ?"
"Un LLM c'est de*l'auto-complétion de texte sous stéroïdes c'est tout*
(et c'est déjà bien) !"
Manière de dire mais c'est exactement ça.
Un réseau de neurones complètement con, selon des concepts qui ont 70
ans, implémenté grâce à des cartes graphiques de ouf.
Avec des troupeaux d'humains qui filtres les input et les outputs ;>>>
puisqu'il faut 24h à un LLM non filtré pour devenir totalitaire.
Donc
1) l'IA, c'est ni intelligent, ni artificiel, pratique pour les zimages,
la zique et les ztextes (sic).
2) Les humains aiment croire... au père noël, au droit de vote, aux
religions dont on n'a jamais vu le taulier, etc.
J’aimerais bien qu’un(e) tech qui bosse dans ce domaine m’explique
comment on peut oublier d’implémenter à une IA ses propres limites,
surtout qu’elle semble en fait les connaitre mais seulement à la fin,
une fois qu'elle a planté l’utilisateur. C’est pas de la perversion
artificielle ça ?
Juste de la connerie, ou un biais de complétion, question de vocabulaire :)
--
Stéphane Rivière
Ile d'Oléron - France
_______________________________________________
Liste de diffusion du French Sysadmin Group
https://www.frsag.org/