Un prédicteur de texte. C’est tout.
Il faut qu’on parle de ce que l’IA est vraiment.
Un LLM (Large Language Model, le moteur derrière ChatGPT, Claude, Gemini et les autres) n’est pas intelligent. C’est un modèle statistique qui prédit le prochain mot le plus probable dans une séquence. Le suivant. Puis le suivant. Puis le suivant.
Il ne comprend pas ce qu’il écrit. Il ne raisonne pas. Il produit du texte qui ressemble à du raisonnement parce qu’il a été entraîné sur des milliards de textes qui, eux, contenaient du raisonnement humain. La différence est fondamentale… et elle est systématiquement gommée dans le discours ambiant.
Le terme existe depuis 2021. Emily Bender, Timnit Gebru et leurs collègues les ont appelés des “perroquets stochastiques” dans un article devenu référence : On the Dangers of Stochastic Parrots. Plus de 8 000 citations depuis. Des systèmes qui reproduisent des patterns statistiques sans comprendre ce qu’ils disent. Le nom est resté.
Quand un LLM vous donne une réponse convaincante, ce n’est pas parce qu’il a compris votre problème. C’est parce que la structure de votre question ressemblait à quelque chose qu’il a déjà vu des millions de fois. Changez un paramètre de contexte… et la réponse devient absurde.
Les hallucinations ne sont pas un bug
On parle des “hallucinations” comme d’un défaut qu’il faudrait corriger. Un problème temporaire. La prochaine version résoudra ça.
Non.
Les hallucinations sont une conséquence directe du fonctionnement du modèle. Un prédicteur de texte n’a aucun moyen de savoir si ce qu’il génère est vrai. Il sait que c’est probable. Probable et vrai, ce n’est pas la même chose.
Et les chiffres ne sont pas anecdotiques. Selon une étude publiée dans Nature en 2025, les taux d’hallucination varient de 15% à 52% selon les modèles. Dans le domaine juridique, une analyse récente monte à 69%-88% sur des requêtes à fort enjeu. Même les meilleurs modèles du moment oscillent entre 8% et 17% dans les conditions les plus favorables.
Le pire, c’est que rien dans la forme ne vous alerte. Le texte est fluide, structuré, assuré. Un LLM qui cite une source qui n’existe pas ne “se trompe” pas. Il fait exactement ce pour quoi il est conçu : produire une séquence de mots statistiquement cohérente. Que cette séquence décrive la réalité ou non… ça ne fait pas partie de l’équation.
Le coût qu’on préfère ne pas voir
L’IA est vendue comme un gain d’efficacité. On parle moins de ce qu’elle coûte.
Et on ne parle pas du prix de l’abonnement. On parle d’énergie. D’eau. D’infrastructure.
Entraîner GPT-3 a consommé 1 287 MWh d’électricité. L’équivalent de 120 foyers américains pendant un an. 552 tonnes de CO2. GPT-4 ? Environ 100 millions de dollars d’entraînement. Et on ne parle que de l’entraînement, pas de l’utilisation quotidienne par des centaines de millions de personnes.
Côté utilisation, 2,5 milliards de requêtes par jour rien que pour ChatGPT. Un volume qui a doublé en six mois. Et pour faire quoi ? Reformuler un email de trois lignes. Résumer un paragraphe qu’on aurait pu lire. Générer une blague pour un groupe WhatsApp. Demander un plan de repas pour la semaine. Une bonne partie de ces requêtes ne justifie pas la puissance de calcul mobilisée.
Et puis il y a l’eau. Un data center classique consomme plus d’un million de litres d’eau par jour pour le refroidissement. Les plus grands, près de 19 millions de litres par jour. L’équivalent d’une ville de 50 000 habitants. En 2024, 78% de l’eau utilisée par Google pour ses data centers était de l’eau potable.
Les résultats sont visibles dans les bilans carbone. Émissions de Google : +48% en cinq ans. Microsoft : +29% entre 2020 et 2024. La même cause dans les deux cas : l’expansion des data centers pour l’IA.
Ce n’est pas un argument pour ne pas utiliser l’IA. C’est un argument pour arrêter de l’utiliser pour tout. Automatiser le tri de vos emails avec un modèle à plusieurs milliards de paramètres… c’est utiliser une massue pour planter une punaise.
Pendant ce temps, dans les bureaux
Pendant que les directions générales se demandent si elles doivent “faire quelque chose avec l’IA”… leurs équipes l’utilisent déjà.
ChatGPT pour rédiger des emails. Copilot pour du code. Des outils en ligne pour résumer des documents internes. Sans politique. Sans cadre. Sans que personne ne sache quelles données transitent par ces services.
Les chiffres donnent le vertige. Selon une enquête Salesforce de 2026, 67% des employés utilisent des outils IA au travail. Seulement 18% des organisations ont une politique de sécurité IA. 38% des employés partagent des données confidentielles avec des plateformes IA sans autorisation. Et 60% estiment que le gain de temps justifie les risques.
Un collaborateur qui colle un document confidentiel dans ChatGPT pour en faire une synthèse ne fait rien de malveillant. Il fait ce que tout le monde fait : chercher un gain de temps avec les outils disponibles. Le problème, c’est que personne ne lui a posé de cadre.
On appelle ça le “shadow AI” : l’utilisation d’outils IA par les employés sans que l’entreprise ne le sache ou ne l’ait autorisé. C’est l’équivalent du “shadow IT” des années 2010, quand les équipes installaient leurs propres logiciels sans passer par la DSI. Sauf que cette fois, c’est plus rapide, plus discret, et les données qui fuient sont souvent plus sensibles.
La qualité des données. Toujours.
L’IA ne crée pas de la qualité. Elle amplifie ce qui existe.
Données propres, structurées, bien documentées ? L’IA peut faire des choses remarquables. Données en vrac, mal nommées, sans métadonnées ? L’IA automatisera le chaos. Plus vite.
L’industrie préfère ne pas insister sur ce point. Le discours “l’IA va tout résoudre” est plus vendeur que “commencez par ranger vos données”. Mais aucune couche d’IA, aussi sophistiquée soit-elle, ne compense des fondations bancales.
On le voit très concrètement dans le DAM. Les éditeurs intègrent des modèles de reconnaissance visuelle, comme YOLO (You Only Look Once), pour taguer automatiquement les images et vidéos. Rien à voir avec un LLM. Mais le principe est le même : de l’IA vendue comme une solution clé en main.
Sauf que ces modèles sont généralement entraînés sur des datasets génériques. Ils reconnaissent un “chien” ou une “voiture”. Pas vos catégories produit, vos typologies métier, vos conventions internes. Pour ça, il faudrait un dataset sur mesure. Annoter manuellement des milliers d’images, ça coûte entre 0,03 et 1€ par image, sans compter la conception et le contrôle qualité. Personne ne le dit au moment de la démo.
Et même avec un modèle bien entraîné… un tagging à 90% de précision, sur 100 000 assets, c’est 10 000 erreurs. Le modèle ne lève pas la main quand il se trompe. Pour trouver les 10 000 erreurs, il faut vérifier les 100 000. 90% de précision, ça ne veut pas dire 90% du travail fait. Loin de là.
Ce que l’IA fait bien (vraiment)
Ce n’est pas un réquisitoire anti-IA. C’est un recadrage.
L’IA est utile quand elle est appliquée au bon endroit, avec les bonnes attentes :
- Les tâches répétitives et prévisibles. Classer des documents, extraire des informations structurées, pré-remplir des formulaires. Tout ce qui suit un pattern identifiable.
- La recherche et l’exploration. Fouiller dans un corpus, identifier des tendances, suggérer des pistes. Un assistant de recherche. Pas un oracle.
- L’accélération de la production. Générer un premier jet, proposer des variantes, traduire. À condition qu’un humain valide le résultat.
Le point commun : dans chacun de ces cas, l’IA est un outil supervisé. Pas un décideur autonome.
Le vrai sujet, c’est le cadrage
La question n’est pas “faut-il utiliser l’IA ?” C’est évident que oui, dans certains cas.
La question, c’est : sur quoi, comment, avec quelles données, et qui vérifie ?
Sans cadrage, l’IA devient un générateur de problèmes déguisé en solution. Avec un cadrage sérieux, elle peut faire gagner un temps considérable sur des tâches précises.
La différence entre les deux, ce n’est pas la technologie. C’est le travail qu’on fait en amont.