ton pote oublie que du point de vue de quelqu’un qui s’y connait pas bien, un LLM est capable de générer:

Mon pote n'oublie pas puisqu'il a bien précisé :

"LOL mais qui a cru ne serait-ce qu'une micro-seconde qu'un LLM pouvait faire une VM ?" "Un LLM c'est de*l'auto-complétion de texte sous stéroïdes c'est tout* (et c'est déjà bien) !"

Manière de dire mais c'est exactement ça.

Un réseau de neurones complètement con, selon des concepts qui ont 70 ans, implémenté grâce à des cartes graphiques de ouf.

Avec des troupeaux d'humains qui filtres les input et les outputs ;>>> puisqu'il faut 24h à un LLM non filtré pour devenir totalitaire.

Donc

1) l'IA, c'est ni intelligent, ni artificiel, pratique pour les zimages, la zique et les ztextes (sic).

2) Les humains aiment croire... au père noël, au droit de vote, aux religions dont on n'a jamais vu le taulier, etc.

J’aimerais bien qu’un(e) tech qui bosse dans ce domaine m’explique comment on peut oublier d’implémenter à une IA ses propres limites, surtout qu’elle semble en fait les connaitre mais seulement à la fin, une fois qu'elle a planté l’utilisateur. C’est pas de la perversion artificielle ça ?

Juste de la connerie, ou un biais de complétion, question de vocabulaire :)

--
Stéphane Rivière
Ile d'Oléron - France
_______________________________________________
Liste de diffusion du French Sysadmin Group
https://www.frsag.org/

Répondre à