Il n’y a pas plus con que l’intelligence artificielle.
Et il n’y a probablement à l’heure actuelle rien qui rende plus con que l’intelligence artificielle.
Pardon my French.
Bien. De quoi parle-t-on ?
Si l’on doit simplifier le phénomène, les systèmes d’intelligence artificielle utilisant des agents conversationnels – nos amis ChatGPT, Gemini ou Claude par exemple – reposent sur le ramassage instantané de données sur les Internets et la production d’une réponse immédiate qui synthétise ces données.
Ce processus pose plusieurs problèmes intrinsèques.
En premier lieu, les agents conversationnels n’ont accès qu’à une infime partie du savoir sur une question donnée, puisqu’ils n’ont accès qu’aux données qui sont disponibles sur les Internets. Ils n’ont aucunement accès aux contenus protégés par des paywalls (journaux en ligne, par exemple) ou aux contenus protégés par les droits d’auteur (le monde de l’édition, par exemple). De fait, les agents conversationnels ont accès à un savoir souvent superficiel, parcellaire et incomplet, parce que les Internets sont eux-mêmes un pâle reflet d’un savoir qui n’est pas tombé dans le domaine public et qui se trouve dans les thèses, les mémoires, les documentaires – en bref, la presse écrite et les bouquins.
Le même phénomène est valable pour les questions portant sur des domaines fictionnels : si vous demandez par exemple à ChatGPT une étude approfondie des Rougon-Macquart de Zola, il y a fort à parier que la réponse vous laissera sur votre faim, contrairement à la lecture des différents volumes dédiés à cette oeuvre par La Pléiade, qui comportent des études, des annotations, des dessins et des notes de texte.
En second lieu, les agents conversationnels apportent des réponses fondées sur la théorie qui domine sur un sujet – algorithme oblige – alors que l’on sait que le plagiat et la répétition de narratifs ad nauseam est chose commune sur les Internets. Cela laisse peu de place à l’exception, à la voix divergente, à la nuance ou à la subtilité et cela devient hautement problématique sur des sujets complexes.
En troisième lieu, les réponses produites par les agents conversationnels sont parfois peu sourcées, parfois mal sourcées, parfois inventées – c’est-à-dire sans source. ChatGPT ne dira jamais qu’il ne sait pas, il inventera des sources. J’ai fait le test avec mon ado-chérie-qui-est-maintenant-une-jeune-femme : j’ai posé à ChatGPT une question un peu pointue en droit (je suis Docteur en droit et avocate), et mon ado-chérie-qui-est-maintenant-une-jeune-femme lui a également posé une question un peu pointue en sociologie (elle est doctorante en études de genre). Nous avons toutes les deux reçues, chacune dans nos domaines, des références de textes que nous ne connaissions pas et que nous n’avons jamais trouvées après recherche. Vous vous direz que la prévalence de l’anglais dans les modèles qui fondent les agents conversationnels explique peut-être ces lacunes ? Il n’en est rien : j’ai certes posé ma question en français, mais ma doctorante préférée l’a posée dans son autre langue maternelle, l’anglais. C’est ce qu’on appelle les hallucinations de l’IA : le ton semble crédible mais le fond n’existe pas.
En quatrième lieu, la somme d’articles générés par l’intelligence artificielle est devenue peu ou prou équivalente à date à celle des articles générés par l’intelligence humaine existant en ligne, si l’on en croit le rapport en date d’octobre 2025 de Graphite, qui est une société de référencement SEO. Un rapport d’Europol publié en 2022 estimait que 90% du contenu en ligne serait généré par l’intelligence artificielle d’ici 2026 suite au lancement de ChatGPT et même si nous n’y sommes pas encore, il est illusoire de croire que les contenus générés par l’intelligence artificielle ne vont pas bientôt submerger de manière très significative ceux créés par l’humanité d’ici peu.
La vérité est qu’en 2026, l’intelligence artificielle évolue en boucle fermée en se nourrissant d’elle-même. Les modèles d’intelligence artificielle qui sont derrière les agents conversationnels s’entrainent de manière répétée sur d’autres modèles d’intelligence artificielle et produisent des contenus de moins en moins précis et de moins en moins fiables, car ils réutilisent leurs propres productions et amplifient leurs propres erreurs ou approximations. Le phénomène, étudié par les universités de Stanford et d’Oxford, a été baptisé le model collapse et – CQFD – n’est pas près de s’arrêter puisque les Internets contiennent de plus en plus de contenus générés par l’intelligence artificielle.
Comme je le disais, il n’y a rien de plus con que l’intelligence artificielle.
Là où un moteur de recherche vous offre des milliers d’entrées sur un sujet, vous oblige à faire vos recherches, à comparer, à estimer, à raisonner et donc à vous faire votre propre opinion, les agents conversationnels font le travail de recherche et de raisonnement pour vous offrir une opinion clé-en-main, sans grande nuance et sans guère d’approfondissement – quand elle n’est pas erronée.
Ou orientée. Les réponses peuvent être influencées par des intérêts économiques, politiques, géostratégiques et les vrais maîtres de l’information de demain seront ceux qui seront capables de dominer toute la chaine des narratifs – de l’information à sa reproduction au sein des modèles d’intelligence artificielle.
La start-up américaine de lutte contre la désinformation NewsGuard alerte régulièrement sur la prolifération de sites d’information non-fiables générés par l’intelligence artificielle et qui relaient, sur des sujets aussi variés que la politique, la technologie, le divertissement ou les voyages, de fausses informations ou carrément de la propagande d’État – comme cela a été le cas pour la Russie ou la Chine en 2025.
L’UNESCO a quant à lui alerté dès mars 2024 sur la prolifération des stéréotypes racistes, sexistes et homophobes au sein des modèles de langage de Meta et d’OpenAI – venant ainsi façonner subtilement la perception de millions de personnes et la duplication potentielle de ces stéréotypes dans la vie réelle.
L’intelligence artificielle prospère parce que nous sommes fainéants.
L’intelligence artificielle rend con, mais la réalité est que l’intelligence artificielle prospère parce que nous avons été, nous humanité, assez cons pour jouer aux apprentis-sorciers sans aucun sens des responsabilités.
L’intelligence artificielle prospère parce que nous sommes dans des logiques de rentabilité où le moindre effort allié à la plus grande rapidité permet de satisfaire une logique capitaliste à moindre coût et à grande productivité.
Deloitte, l’un des quatre plus grands cabinets d’audit et de conseil au monde, s’est retrouvé au cœur d’un scandale monumental en août 2025 pour avoir produit un rapport entièrement produit par l’intelligence artificielle, évidemment vendu à prix d’or. Chargé en 2024 de produire un rapport au ministère de l’Emploi australien pour la modique somme de 260.000 euros, Deloitte a produit en juillet 2025 un travail non pas produit par des humains raisonnants mais généré par l’intelligence artificielle qui comportait des citations inventées, des références à des articles scientifiques et des décisions de Justice qui n’existaient pas. Le ministère de l’Emploi australien s’en est aperçu et a bien évidemment demandé le remboursement d’une grande partie des honoraires versés.
La réalité est que le savoir se trouve, de manière générale, dans les livres. C’est en se paluchant des thèses, des mémoires, des bouquins sur un sujet donné que l’on peut se former une opinion valable. C’est en prenant le temps d’assimiler une somme d’informations contradictoires que l’on peut se former une opinion valable. De l’effort et du temps, l’humanité n’a besoin de rien d’autre pour avancer.
La réalité est que l’inventivité se trouve, de manière générale, dans l’esprit humain. C’est en phosphorant sur un sujet que l’on trouve des solutions inexplorées parce que l’esprit humain est, lui, doté d’une très réelle intelligence mais également d’un instinct, d’une âme, d’un cœur et d’un corps et parce que c’est justement cette conjugaison de centres de décisions qui rend une solution viable ou non.
Qu’une humanité entière fonde ses opinions sur tel ou tel sujet sur les réponses apportées par des agents conversationnels a de quoi grandement inquiéter. Le risque est d’assister dans les années qui viennent à un assèchement rapide du savoir, de la connaissance et de l’intelligence humaine, qu’elle soit cérébrale ou émotionnelle.
La division de l’humanité, déjà bien amorcée, va prospérer – chacun se retranchant derrière des opinions sans nuance, sans compréhension humaine, sans lien social.
L’isolement de l’humain, déjà bien amorcé, va prospérer – chacun s’enfuyant dans un monde digital sur-stimulant et sur-divertissant sans compréhension humaine, sans lien social.
Le téléphone va disparaitre, probablement remplacé par des lunettes (Meta), des implants (Musk) ou des casques (Apple) qui auront éliminé l’interface visible de l’écran de téléphone au profit d’interfaces digitales invisibles, personnalisées, interactives, plantées dans le monde réel mais en circuit fermé entre l’intelligence artificielle et son humain.
L’humanité est en train de confier les rênes de sa capacité décisionnelle à l’intelligence artificielle sans contrôle réel, sans réglementation. “Black Mirror” n’est pas loin et c’est assez inquiétant.
Comme je le disais, il n’y a probablement à l’heure actuelle rien qui rende plus con que l’intelligence artificielle.
Note de la rédaction. Me voici donc chez Daunt Books à Marylebone, Londres – le paradis du livre. À l’heure où j’écris, les outils de génération de contenus visuels sont en train de se perfectionner, rendant la distinction entre une photo réelle et une photo générée par l’IA plus que difficile, voire quasi-impossible. Si l’on en vient à la mode digitale et aux influenceuses, les réseaux sociaux vont être submergés de contenus photographiques soi-disant parfaits présentés par des avatars digitaux basés sur des personnes réelles, mais sans aspérité, sans humanité, sans profondeur quelconque. Il y a fort à parier que cela écœure et détourne une grande partie des consommateurs (car oui, c’est une consommation) de réseaux, comme Instagram ou TikTok. Vous ne verrez jamais ici de photos générées par l’intelligence artificielle. Sachant que je publie ici un article par semaine et que cela nécessite donc un peu de travail, ce serait probablement plus facile de générer des photos via un prompt sur Nano Banana. Je ne m’y résous pas d’un point de vue éthique, cela manque de réalité, de véracité, d’authenticité, d’alignement. En outre, c’est bien plus intéressant et amusant de chercher et de trouver le lieu et la tenue adéquats pour faire des photos qui illustreront chaque article.
Le 23 Janvier 2026
