europia logo white

L’intelligence artificielle générative ou la caverne de Platon

futuristic-computer-eq`uipment-glows-dark-connected-by-network-server-generated-by-ai-1080x675.png
22 Sep, 2025

Que vient donc faire Platon dans le champ de l’intelligence artificielle générative ? Plus qu’une simple métaphore, son célèbre mythe de la caverne, fait écho avec une acuité surprenante à l'IA générative. Celle-ci, qui ne cesse de croître dans notre quotidien et qui est aujourd'hui largement utilisée, donne bien souvent l'illusion de la réalité, laissant même à penser que l'IA serait douée de raison et pourquoi pas d'intelligence. Elle, qui indéniablement apporte un service efficace à travers des réponses particulièrement pertinentes, n'est-elle pas à l'origine d'illusions aux conséquences bien réelles tant au niveau du savoir, de l'individu que des Etats ?  Le mythe platonicien n'est-il pas une belle illustration de cette IA et l'homme ne doit-il pas veiller à ne pas s'enfermer dans la caverne afin de conserver un regard sur l'extérieur, sur la réalité. 


De la frontière entre illusion et réalité

Au sein du livre VII de la République, le mythe de la caverne décrit des prisonniers enchaînés, contraints depuis leur naissance à ne contempler que les ombres mouvantes projetées sur les parois de leur caverne. Ces silhouettes, simples reflets d’objets manipulés à leur insu, deviennent pour eux la seule réalité concevable. Et un jour, un prisonnier parvient à s'extraire de ses chaînes et s'évadent à l'extérieur de la caverne. Il découvre la lumière, et comprend que ce qu’il croyait être le monde n’était qu’une tromperie. Cette découverte est difficile, le prisonnier est d'abord ébloui par la lumière avant de percevoir que la réalité n'était pas sa réalité. Il comprend alors l'imposture des ombres, il comprend que celles-ci l'ont trompé toute sa vie durant. 

Ce récit philosophique doit nous interroger sur l'impact de l'IA générative qui produit des textes, des images, des sons artificiels donnant l'illusion de la réalité. Mais la confusion peut aller plus loin encore parce que cette IA imite certes le réel mais interagit aussi avec l'humain sur des fondements erronés. La réalité de l'IA générative, vide de conscience, relève de corrélations au sein des données analysées. Les productions ressemblent suffisamment au réel pour y être confondues, mais elles n’en sont que des représentations, comparables aux ombres projetées au fond de la caverne. La force persuasive réside dans la vraisemblance.  Les ombres sont donc particulièrement intéressantes comme allégorie de l'information, mais les marionnettistes n'en sont pas moins essentiels à examiner comme représentation des concepteurs derrières ces IA génératives. L'impact sur le savoir, sur le sachant mais aussi sur la souveraineté des Etats est alors, face à l'exploitation des IA génératives, une vraie réalité à prendre en compte. 


De l'illusion du savoir

L’essor de l’intelligence artificielle générative a profondément transformé l'accès au savoir comme le savoir lui même. En effet, cette forme d'IA suscitent un paradoxe en donnant l’impression de détenir une forme de connaissance, alors qu’elle ne dispose d'aucune compréhension du monde, ni même des objets (texte, images, son) qu'elle génère. Elle propose un savoir sans conscience, une érudition sans pensée. Cette illusion ne peut néanmoins pas être accusatoire envers l'IA, elle interroge plutôt ses utilisateurs et ses concepteurs. En effet, l’attitude de l’utilisateur est déterminante face à l’information générée tant au niveau de la crédibilité à accorder que du contrôle de l’exhaustivité et de la capacité de remise en cause. 

Le résultat produit par une IA générative est une construction persuasive, structurées, grammaticalement correctes et formulées avec assurance. Ce phénomène d’illusion du savoir est renforcé par des mécanismes cognitifs humains, tels que le biais de confirmation qui nous incitent à croire ce qui nous confortent.

L’IA générative, telles les ombres projetées sur la caverne, ne produit donc pas de savoir au sens strict, mais une simulation de la connaissance qui potentiellement peut être source d’hallucinations. 

Il est aussi à noter que l'illusion de ce savoir entraîne également le risque d'une perte de capacité cognitive à long terme. En effet, pourquoi apprendre à coder aujourd'hui, l'IA le fait très bien, pourquoi apprendre une langue étrangère, l'IA le fait très bien, pourquoi même apprendre à rédiger, l'IA le fait très bien. En réalité, derrière toutes ces réalisations, ce sont des facultés humaines de réflexion qui sont en action. Lorsque nous écrivons une ligne de code, l'informaticien pense à la pertinence,  à la juste mesure, à la cohérence de son code et toute cette réflexion est utile à des sujets qui vont au delà de la simple programmation. Privons l'humain de toutes ces opportunités de mettre en action sa réflexion et demain, celle-ci disparaitra par une perte des chemins neuronaux bien réels. 

Face à cette situation, la solution demeure dans la capacité de remise en cause de l’utilisateur et potentiellement dans le développement d' outils qui incitent au sens critique. En d'autres termes, l'utilisateur doit conserver et améliorer encore et toujours sa capacité à raisonner par des mises en situations permanentes qui ne se limitent pas à valider une production toute faite. 


De l'illusion du sachant

Alors que l'illusion du savoir est un risque parfaitement identifié, celle de l'expert l'est moins car elle relève non plus de l'imposture de la machine mais de celle de l'humain. L'IA modifie la perception des compétences et peut générer une illusion du « sachant ».  L'expertise est désormais accessible à tous: il est aujourd'hui aisé pour un utilisateur de  donner l’impression de disposer d'une expertise dans un domaine alors qu'il se contente de relayer des contenus générés. Les conséquences de cette illusion ne sont pas anodines dans un monde où chacun revendique une opinion d'expert. En milieu professionnel, ce type d'imposture apparaît de plus en plus, faussant la perception des compétences et favorisant la promotion d'imposteurs. L'expertise exige un effort pour comprendre les sujets en profondeur et non pas seulement de manière superficielle. L'IA génère une confusion du savoir mais aussi une confusion d'experts en érodant à terme la confiance envers les véritables sachants tout en affaiblissant la recherche de compétences

Il est impressionnant aujourd'hui de voir le nombre de formation à l'expertise en IA en trois ou quatre jours. Ces formations consistent bien souvent à simplement « apprendre » à rédiger des requêtes, les prompts nécessaires à l'utilisation des IA génératives. Elles ne permettent nullement de comprendre l'IA même si elles sont très utiles à une utilisation pertinente.  La question est alors de savoir si, dans son domaine d'activité, une exploitation sans compréhension de ce qu'est l'IA est responsable et même possible. Dans le champ de la sécurité, par exemple, c'est à proscrire. Exploiter des IA génératives issues des géants du numérique sans comprendre comment est construit un modèle de fondation, sans  rechercher la compréhension des méthodes comme des données exploitées, c'est assurément le chemin le plus direct vers les mésusages. Exploiter l'IA sans compréhension des fondements mathématiques c'est ouvrir la porte à une stratégie techno-centrée, automatisée qui progressivement génère une baisse de la capacité d'analyse, du raisonnement et de la créativité. 


Ainsi, l’IA ne se limite pas seulement à la génération de contenus, elle change la façon dont nous percevons les compétences et les savoirs des individus. L’illusion d’avoir un sachant face à soi, alors que celui-ci n’est que l’intermédiaire d’un système génératif, constitue un enjeu central pour l’avenir de l’évaluation, de la formation et de la reconnaissance sociale des savoirs. Face à cette difficulté, les entreprises comme les institutions devront définir de nouveaux critères de reconnaissance moins axés sur la forme du savoir et davantage sur le processus de réalisation et la validation de ce savoir. En effet, l'expertise ne réside plus dans la détention du savoir mais dans la capacité à raisonner, à élaborer le savoir tout en sachant exploiter en complémentarité l'IA générative. Voilà de belles perspectives d'évolution qui s'ouvrent dans le champ des ressources humaines !

De l'illusion de la souveraineté

Illusion du savoir, illusion du sachant, comment se comporte alors les Etats face à ces risques objectifs. Ne sont-ils pas pour certains d'entre eux plongés dans l'illusion de leur souveraineté. Dans le champ numérique, la souveraineté se définit comme la capacité d’un État, d’une organisation ou d’une communauté à maîtriser ses infrastructures, ses données et ses technologies, afin de préserver son autonomie décisionnelle et stratégique. L'exploitation de l'IA générative est souvent présentée comme souveraine sous le prétexte qu'elle s'appuierait sur le patrimoine informationnelle d'une entreprise ou d'une organisation à partir de modèle propriétaire. Dans la grande majorité des cas, la réalité est tout autre et l'illusion est à nouveau au rendez vous. Mais comment fonctionnent les IA génératives ?

Par nature, elles construisent des entités inédites (images, vidéos, musique, paroles, textes, codes informatiques…) en réponse à des requêtes en langage naturel qualifiées de « prompts ». Pour cela, elle repose sur différentes méthodes autour des réseaux de neurones de type « transformers » qui s'appuient sur un vaste corpus de données pour générer un modèle de fondation. Celui-ci constituent la richesse et le socle de performance de l' IA générative. Et ce modèle appartient aux concepteurs et les données à l’origine de sa construction sont souvent inconnues des utilisateurs. Ces modèles peuvent être mise à disposition pour construire des outils d’IA générative adaptés à des besoins spécifiques. Nous parlons alors de modèles  « open-weight » et non « open source » et encore moins propriétaire. Cela signifie que les exploitants disposent des performances du modèle de fondation avec ses poids de connexions neuronales mais sans avoir accès ni aux codes, ni aux algorithmes, ni aux données. 

Déclarer une IA souveraine dès lors qu'elle s'appuie sur un modèle construit par les géants du numérique dont on ne maîtrise ni le code, ni les algorithmes de construction des modèles, ni les données est quelque peu optimiste ou naïf. En réalité, le modèle soi-disant « open source » est « open weight» et la distinction est majeure. Alors que l'open-source renvoie à une transparence totale, l'open-weight qualifie une ouverture très partielle qui se limite à un modèle pré configuré c'est-à-dire un modèle avec ses poids de connexion neuronale. En général, les développeurs internalisent ces modèles et les adaptant à de nouvelles données propriétaires (Fine-tuning) ou reconfigurent le poids du modèle de fondation (RAG :retrieval augmented generation ou génération augmentée de récupération) pour une meilleure adaptation au problème à résoudre. Il n'en demeure pas moins qu'un modèle internalisé reposant sur l' « open weight » n'est ni un modèle propriétaire, ni un modèle souverain. Dès lors que la mise à disposition ou les mises à jour de ce modèle disparaissent, tout l'édifice s'effondre et apparaît très vite dépassé. Le risque est encore plus important lorsque ces modèles « open weight » disposent en leur sein de pièges cyber telles des portes dérobées (backdoor) mises en oeuvre par le concepteur. Internaliser un modèle de fondation avec des  portes dérobées, c'est la garantie de voir son système d'IA vérolée. 

Les concepteurs des modèles de fondation « open weight » qui rassemblent les géants du numérique  renvoient aux marionnettistes de Platon. Ce sont eux qui fixent les règles du jeu et projettent des modèles adoptés, par les organisations ou les entreprises, comme des modèles souverains, de belles ombres qui font illusion.

L'illusion de la souveraineté numérique concerne donc les infrastructures, les algorithmes et les données, bref tout ce sur quoi repose l'IA générative. Cette souveraineté est artificielle car les modèles mobilisés reposent sur des corpus d’entraînement, des algorithmes et des infrastructures techniques qui échappent à la maîtrise des usagers. Cette illusion de souveraineté numérique est néfaste et peut conduire les entreprises comme l'Etat à sur évaluer son indépendance technologique, à sous estimer le risque de dépendance au géant de la Tech et à fragiliser la sécurité des systèmes d'information. 

Une solution pour échapper à ces diverses contraintes est d'adapter les modèles aux moyens capacitaires et financiers en orientant les travaux vers de plus petits modèles de langage (Small Langage Model) par exemple qui obligent à la spécialisation mais dans le même temps afficheront des résultats plus pertinents car plus orientés sur le besoin de l'utilisateur. 


Ainsi, l’IA générative peut être appréhendé à travers le prisme du mythe de la caverne de Platon : elle offre des représentations séduisantes mais trompeuses, qui brouillent la frontière entre savoir et illusion. Elle engendre à la fois une illusion du savoir, en donnant l’apparence de la connaissance sans conscience ni compréhension, et une illusion du sachant, en permettant à des individus de se présenter comme experts sans véritable compétence. À l’échelle des États et des organisations, elle alimente également une illusion de souveraineté, en entretenant une dépendance cachée vis-à-vis des géants du numérique. Face à ces enjeux, la véritable maîtrise ne réside pas dans l’adhésion aveugle aux contenus générés, mais dans la capacité à exercer un regard critique, à repenser la reconnaissance de l’expertise et à développer des modèles plus adaptés et véritablement maîtrisables. Ainsi, l’IA générative ne doit pas être perçue comme une fin en soi, mais comme un outil dont l’usage éclairé conditionne l’avenir du savoir, des compétences et de la souveraineté numérique. À l’instar du prisonnier qui sort de la caverne, il nous revient d’apprendre à voir les ombres pour ce qu’elles sont : des représentations partielles et construites, qui ne sauraient remplacer la lumière du réel. L'enjeu aujourd'hui comme pour les années à venir réside dans la capacité des décideurs à comprendre véritablement l'IA et à s'entourer de véritables experts en évitant les imposteurs qui s'évertuent à les enfermer et en s'affranchissant des marionnettistes. En d'autres termes, il s'agit tout simplement de sortir en pleine conscience de la caverne !

Articles
Actualités
Partager:
hmyXqiVG_400x400.jpeg
Patrick Perrot

© 2019–2025 Institut EuropIA – Tous droits réservés.