Intelligence Humaine VS Intelligence Artificielle
Intelligence Humaine vs Intelligence Artificielle : quels enjeux, quels futurs possibles ?
par Hélène Masson, Administratrice de l’Institut EuropIA
Le 20 juin 2024, un robot en Corée du Sud, à la charge de travail trop lourde, se serait suicidé en se jetant dans un escalier. Le bon sens laisserait à penser qu’une telle information relève d’une fake news. Il n’en est rien, le robot développé par la société californienne Bear Robotics, a bien existé, il était employé par la mairie de Gumi et possédait sa propre carte d’agent de la fonction publique. Depuis plusieurs années il aidait les habitants à accomplir des tâches administratives.
Cette mésaventure apparemment rocambolesque, qui a défrayé la chronique, amène pourtant à soulever trois interrogations majeures pour qui s’intéresse à la place de l’IA dans nos sociétés. Les robots et l’IA possèdent-ils des capacités intellectuelles surpassant celles des humains, capables de leur permettre de les remplacer dans des tâches très complexes et de réaliser des performances supérieures ? Si le robot fonctionnaire coréen, se serait suicidé en raison d’une surcharge de travail, cette hypothèse amène à se demander si les robots ou l’IA peuvent éprouver des sentiments et des états mentaux et en ce cas, leur intelligence se rapprocherait-elle de l’Intelligence Humaine ? Comment également ne pas s’interroger sur l’impact sur les humains et sur les civilisations de cette omniprésence de l’IA, et sur les bénéfices et les menaces de cette ingérence dans un futur possible ?
Intelligence humaine et IA, une comparaison nécessaire
Une comparaison entre l’intelligence humaine et l’intelligence artificielle permet un certain éclaircissement même si cette comparaison est complexe car les deux intelligences fonctionnent de manière fondamentalement différente et leur nature même est également différente. De plus l’intelligence humaine possède deux composantes, l'intelligence cognitive et l'intelligence émotionnelle, et à ce jour l’Intelligence Artificielle serait dépourvue de cette dernière.
Comparer la composante cognitive des deux intelligences permet de souligner l’importance de leurs différences, particulièrement dans les domaines où l’IA excelle.
L'intelligence humaine est le produit de millions d'années d'évolution biologique. Classiquement, elle est définie comme la capacité cognitive d'un individu à apprendre, comprendre, raisonner, résoudre des problèmes, penser de manière abstraite, utiliser le langage, s'adapter à des situations nouvelles, et produire des idées innovantes. Elle englobe à la fois les aptitudes intellectuelles innées et les compétences acquises par l'expérience et l'éducation.
Mais cette définition se doit d’être élargie à l’intelligence émotionnelle qui fait référence à diverses capacités, dont l'empathie, permettant de comprendre et de partager les idées des autres, facilitant ainsi la communication et les relations interpersonnelles. Tout comme il faut également inclure l’existence d’une conscience morale avec sa capacité de réfléchir aux implications éthiques des actions, et à la prise en compte de considérations telles que la justice et le bien-être des autres.
En revanche, l’IA est une création humaine, basée sur des algorithmes et des systèmes informatiques capables de traiter de vastes quantités de données pour effectuer des tâches spécifiques avec efficacité et rapidité. L’Intelligence Artificielle est très spécialisée, en particulier les IA basés sur des réseaux de neurones artificiels comme GPT-4 ou GPT-5 (Generative Pre-trained Transformer) conçus pour générer du texte et accomplir des tâches linguistiques. Elle excelle dans l’exécution de tâches spécifiques (la reconnaissance de formes, la reconnaissance faciale, la traduction de langues, la prédiction de tendances, et la génération de texte), avec une précision et une constance que l'intelligence humaine ne peut égaler. Mais à ce jour, elle manque de conscience, d'intuition humaine, et de la capacité à comprendre le contexte au-delà de ses programmations et des données qu'elle a été formée à analyser.
La composante cognitive de l’intelligence en faveur de l’IA (ou des IA)
Nous ne chercherons pas ici à établir une comparaison entre les intelligences des différentes IA, pour autant il est intéressant de constater que ce type de recherche a été tenté, mettant en rivalité les grands modèles d’IA. Des tests comparant trois IA, (Mistral n’ayant pas été pris en compte) basés sur Norway Mensa, publiés par Anthropic, révèlent que la troisième génération du modèle de langage (LLM) C Claude 3 a obtenu un score de 104 contre 85 pour GPT-4 (OpenAI) et 77 pour Gemini (Google).
Concernant l’Intelligence Humaine versus l’Intelligence Artificielle, une comparaison peut être recherchée à travers le test de quotient intellectuel (QI) développé par David Wechsler, le plus reconnu et utilisé à l'échelle mondiale pour mesurer diverses facettes de l'intelligence. La supériorité de l’IA, ne fait aucun doute au regard de la notion de quotient intellectuel QI. Une comparaison en chiffres témoigne de cette évidence. Le QI moyen des humains est de 100, mais des individus, en nombre restreint ne représentant que 2% de la population, possèdent des capacités exceptionnelles leur QI se situant de 130 à 160. De très rares humains atteignent des QI jusqu’à 200. Le mathématicien William James Sidis, enfant prodige, est souvent cité comme ayant été l’homme le plus intelligent au monde, avec un (QI) exceptionnellement élevé, des estimations allant jusqu'à 250 à 300. Mais né en 1898, ces chiffres sont basés sur des anecdotes et des témoignages, les tests modernes standardisés confirmant son QI n’existant pas à l’époque. Actuellement, le mathématicien Terence Tao est considéré comme l’humain le plus intelligent avec un QI atteignant 230, même si les détails exacts de ses tests ne sont pas publics. Beaucoup de ce qui est connu de son intelligence est fondé sur des estimations et ses réalisations académiques remarquables.
L’intelligence artificielle n'a pas de QI au sens strict mais il est possible de mesurer sa « puissance », par exemple en termes de précision et de rapidité à accomplir des tâches spécifiques. Certaines estimations théoriques suggèrent que la performance d'une IA pourrait être équivalente à un QI bien au-delà des limites humaines, allant jusqu'à 1000 ou plus. Cette estimation est purement spéculative et permet d’illustrer la différence de capacité de traitement.
A l’évidence en termes de puissance, l’Intelligence Artificielle est très supérieure à l’Intelligence Humaine, des comparaisons spécifiques de performance dans des domaines précis en témoignent. Les IA peuvent analyser des millions de données en quelques secondes ce qui est impossible pour un cerveau humain. En vitesse de calcul, les ordinateurs et les IA peuvent exécuter des milliards d'opérations par seconde (mesurées en FLOPS, opérations de mesure en virgule flottante par seconde). L'ordinateur Summit d'IBM, actuellement le plus puissant au monde, pensé pour exploiter les possibilités de l’IA, peut atteindre 200 pétaFLOPS (200 quadrillions d'opérations par seconde).
Si l’on compare le traitement de données, un cerveau humain peut traiter environ 10 à 100 millions de bits d'informations par seconde, alors qu’un modèle d'IA comme GPT-4 peut analyser et générer des textes en analysant des milliards de données.
L’exemple des Jeux de Stratégie ou de la Reconnaissance d’Images illustre sans équivoque que l’IA surpasse très largement les capacités humaines. Une IA comme AlphaGo de DeepMind a battu les meilleurs joueurs humains de Go, un jeu de stratégie particulièrement complexe. Cette IA a analysé des millions de parties montrant une capacité de décision bien au-delà des résultats obtenus par des humains. Concernant la Reconnaissance d'Images, les réseaux de neurones convolutifs (CNN) peuvent classer des millions d'images avec un taux de précision supérieur à 99% à celle des humains dans certaines tâches. Même supériorité pour la Capacité Mémorielle. Les IA ont la possibilité de stocker et d’accéder à des quantités massives d'informations sans perte de qualité, contrairement à la mémoire humaine qui est limitée et sujette à l'oubli. Dans les tâches spécifiques, nécessitant vitesse et analyse de données massives, l'IA surpasse également l'Intelligence Humaine.
L'intelligence cognitive joue donc un rôle central dans la compréhension contextuelle avec ses capacités d’analyse, de traitement des informations et de mémorisation permettant le stockage des informations. Et toutes ces comparaisons témoignent de la supériorité de l’IA dans les domaines cognitifs.
Mais les experts s’entendent pour affirmer que l’IA manque de compréhension contextuelle. Or cette compréhension contextuelle est liée à la fois à l'intelligence cognitive et à l'intelligence émotionnelle, toutes deux y contribuant de manière différente.
La composante émotionnelle de l’intelligence absente dans l’Intelligence Artificielle
Pour concevoir à quel point son manque d’intelligence émotionnelle prive l’Intelligence Artificielle d’une part essentielle de ce qui fait la supériorité de l’Intelligence Humaine, il est nécessaire de comprendre le rôle capital de l’intelligence émotionnelle. Dans les interactions humaines et sociales, ses capacités d'empathie permettent de percevoir des sentiments non exprimés, des aspects émotionnels, des signaux non verbaux, rendant possible des réponses appropriées aux situations.
Plusieurs éléments témoignent de l’absence d’intelligence émotionnelle de l’Intelligence Artificielle pour rivaliser avec l’Intelligence Humaine, particulièrement parce que l’IA est dépendante aux données d’entraînement à partir desquelles elle a été formée à analyser et que son mode de conception et de fonctionnement ne lui donne pas la capacité de comprendre et d'interpréter correctement les situations en fonction du contexte. Le traitement de l’information en termes de modèles statistiques et de corrélations nuit à la compréhension de ce que ces modèles représentent dans le monde réel. Ne pouvant se baser que sur des informations explicites disponibles dans les données, elle est limitée dans sa capacité à saisir des contextes implicites et elle ne peut appréhender les subtilités du contexte que les humains interprètent intuitivement particulièrement comme l'humour, les sous-entendus ou le sarcasme.
Tout comme l’absence d’intentionnalité la pénalise par rapport à l’Intelligence Humaine. L’IA ne comprend pas pourquoi une tâche est effectuée ou ce qu'elle signifie, elle ne sait pas vraiment pourquoi la question a été posée ni les implications sociales ou éthiques de sa réponse, contrairement à un humain qui prendrait en compte ces éléments contextuels.
L’Intelligence Artificielle ne possède donc pas de conscience ni de sentiments. Mais alors pourquoi l’éventualité, que le robot coréen se serait suicidé, a-t-elle été émise ? On peut penser que ceux qui ont suggéré cette idée de suicide aient pu imaginer que le robot fonctionnaire ait pu avoir une conscience de soi, une capacité à comprendre ses propres émotions, l’idée d’une tâche de travail trop lourde ayant même été avancée.
A ce jour, il est impossible de répondre affirmativement à l’hypothèse d’une conscience dans l’IA, même si certains chercheurs envisagent qu’à un certain niveau de complexité, une IA pourrait véritablement développer quelque chose de semblable à des émotions. Les émotions pourraient alors être une conséquence de la manière dont l'IA traite l'information et interagit avec son environnement. Mais la route semble tracée vers le passage de l’IA faible (ou spécialisée), conçue pour résoudre des problèmes spécifiques et déjà omniprésente dans la vie quotidienne, à l'IA forte ou générale (AGI, pour Artificial General Intelligence), capable de comprendre, d'apprendre et d'effectuer n'importe quelle tâche intellectuelle que peut accomplir un être humain.
Pour en revenir à l’interprétation de sa propre destruction par le robot coréen, la question de savoir si une IA pourrait avoir une composante émotionnelle reste spéculative mais elle suscite engouements et craintes.
Engouements et craintes, l’Intelligence Artificielle surpassant l’Intelligence Humaine
L’engouement est compréhensible car une telle AGI permettrait une augmentation et un surpassement des capacités humaines et les avantages seraient impressionnants dans une multitude de domaines pour le bien-être et l’amélioration de la qualité de vie des humains, de l’automatisation avancée de tâches, au développement de technologies de pointe complexes libérant du temps et des ressources, à la recherche dans le domaine de la santé en ce qui concerne les diagnostics et les thérapies, tout comme dans celui de la préservation de l’environnement et jusqu’à l'exploration de nouveaux domaines, l'espace ou les océans profonds, voire la compréhension de l'univers.
A ce jour, même si la Corée du Sud, employeur du robot fonctionnaire n’a pas atteint la réalisation de robots à l’Intelligence Artificielle capable d’émotions et d’innovation, elle est certainement l’exemple le plus significatif de l’intégration de robots au sein d’une société. Dans l’industrie, selon des données récentes de la Fédération Internationale de Robotique (IFR), la Corée du Sud comptait environ 1000 robots industriels pour 10000 travailleurs humains en 2021, dépassant largement des pays comme le Japon et l'Allemagne, la moyenne mondiale étant d'environ 126 robots pour 10 000 employés.
Dans la vie quotidienne des Coréens, le nombre des robots est également en augmentation rapide, avec des initiatives dans divers secteurs. Ils sont présents dans le domaine de l’Éducation, utilisés pour enseigner des langues étrangères, notamment l'anglais. Des robots comme "Engkey", développés par l'Institut coréen des sciences et technologies (KIST), interagissent avec les étudiants en leur donnant des cours et corrigeant leur prononciation. Dans le milieu de la santé, ils sont intégrés dans les hôpitaux pour surveiller les patients ou assister les chirurgiens. Des robots comme "RoboDoc" sont utilisés pour effectuer des tâches répétitives ou exigeant une précision difficile à atteindre pour les humains. Dans le Commerce, les magasins, restaurants et centres commerciaux, les robots sont employés pour guider les clients, répondre à des questions, ou même préparer et servir des repas. Les Transports également font appel à leur intervention et l’utilisation de véhicules autonomes est en phase d’expérimentation. Dans certains aéroports, ils guident les passagers, transportent les bagages, ou effectuent des tâches de sécurité.
Cette omniprésence de l’utilisation de l’IA et la présence grandissante des robots semble avoir un impact positif sur la société coréenne qui y voit une amélioration de sa qualité de vie en particulier pour les personnes âgées ou handicapées, en leur offrant plus d'indépendance et d'assistance. Et même si l'automatisation a remplacé certains emplois, notamment dans le secteur manufacturier, elle a également conduit à la création de nouveaux emplois dans la technologie, la maintenance des robots, et le développement de logiciels. Le gouvernement sud-coréen investit massivement dans la formation et l'éducation pour préparer les travailleurs à ces nouvelles opportunités.
S’il existe chez les Coréens une forte culture technologique et une acceptation de la progression de l’IA perçue non seulement comme un outil, mais aussi comme une composante naturelle de l'avenir de la société sud-coréenne, certaines sociétés industrialisées réagissent à l’inverse redoutant un impact négatif sur l’avenir du travail, et également sur des secteurs entiers de la société, voire un danger pour la condition humaine.
Résistance contre l’Intelligence Artificielle et organisation des opposants
Les craintes sont schématiquement orientées dans deux directions, un courant pragmatique se concentrant sur les implications sociales et économiques et un courant regroupant chercheurs et scientifiques, experts en technologie se préoccupant des conséquences existentielles pour le devenir de l’humanité. Ces derniers redoutent qu’une IA insuffisamment contrôlée, puisse échapper au contrôle des humains et prendre des décisions aux conséquences potentiellement catastrophiques pour l'humanité.
Les questions pragmatiques sont posées pour la plupart par les syndicats, les défenseurs des droits des travailleurs et les défenseurs des droits civiques. Les premiers sont particulièrement préoccupés par l'impact de l'IA sur le marché du travail. Ils redoutent une vague massive de chômage alors que les machines et les algorithmes remplacent de plus en plus de tâches humaines, en particulier dans les secteurs manufacturiers, les services et la logistique. Ils considèrent que cette automatisation pourrait exacerber les inégalités économiques et déstabiliser des millions d’individus. Leur démarche est souvent positive, plaidant pour des programmes de reconversion professionnelle permettant aux travailleurs déplacés par l'automatisation d'acquérir de nouvelles compétences adaptées à un marché du travail en évolution. Certains proposent même l'instauration d'un Revenu de base universel (RBU), qui garantirait un minimum vital à tous, indépendamment de l'emploi, pour pallier les pertes d'emplois dues à l'automatisation.
Les défenseurs des droits civiques eux s'inquiètent plus particulièrement des atteintes potentielles à la vie privée et des biais discriminatoires intégrés dans les algorithmes de l'IA. Les systèmes de reconnaissance faciale, par exemple, sont accusés de perpétuer des discriminations raciales, tandis que la surveillance accrue grâce à l'IA menace la vie privée des citoyens. Ils appellent à plus de transparence dans la façon dont les algorithmes de l'IA sont développés et utilisés. Ils militent pour des lois plus strictes concernant la collecte et l'utilisation des données personnelles, ainsi que pour l'interdiction de certaines technologies de surveillance.
Les revendications des défenseurs des travailleurs ou des défenseurs des droits de l’homme posent moins de problèmes que les questions existentielles de philosophes et scientifiques face à la déferlante de l’IA. Leurs craintes sont en effet fondées sur la perspective que si dans un avenir proche une Intelligence Artificielle, possédant une conscience, une capacité d’apprentissage et d’innovation comparable à celle des humains voyait le jour, les hommes ne seraient alors pas à l’abri d’une domination de l’IA. Effectivement si une IA était capable d’émotions et de créativité, alors un degré d'imprévisibilité existerait qui nuirait à la possibilité de prédire ses comportements. Elle pourrait également développer des technologies ou des stratégies qui échapperaient au contrôle humain, voire s’opposeraient à l’humanité si elle décidait que celle-ci est un obstacle à ses objectifs.
Les peurs liées à la croissance vertigineuse de l’IA conduisent à des attitudes extrêmement variées, des plus modérées à des prises de position extrémistes. Les plus modérées, reconnaissent les opportunités liées à l’IA sans en nier les dangers et préconisent des stratégies pour minimiser les risques. Le chef d’entreprise milliardaire Elon Musk en appelle à une "régulation proactive" de l'IA, soulignant qu'il est crucial de mettre en place des règles avant que des IA dangereuses ne soient développées. L’astrophysicien Stephen Hawking plaidait pour que la recherche en IA se concentre sur le développement d'une "IA amicale", c'est-à-dire une IA respectant les valeurs humaines fondamentales. Les inquiétudes sont diverses, les préconisations également mais tous s’accordent sur la constatation que la marche de l’IA est inévitable et sur la nécessité de développer des cadres éthiques, juridiques et sociaux solides pour la contrôler.
Des opposants plus extrémistes s’organisent pour résister à l’Intelligence Artificielle donnant naissance à des idéologies plus radicales. Le Primitivisme en rejetant les technologies modernes, en prônant le retour à des modes de vie préindustriel, et en valorisant les modes de vie des sociétés indigènes, illustre cette opposition exacerbée aux technologies du XXIe siècle. Les Luddites modernes incarnent également cette résistance (au XIXe siècle les ouvriers textiles anglais avaient détruit des machines industrielles considérées comme menaçant leurs emplois), s'opposant à certaines applications de l'IA par un activisme politique et des initiatives légales efficaces. Leurs protestations contre la Reconnaissance Faciale à San Francisco, invoquant que cette technologie est biaisée, invasive et peut être utilisée de manière abusive, ont contribué à faire que cette ville en interdise l’utilisation. Une action de même type, mais menée cette-fois-ci contre l’usage de l’IA dans le recrutement chez Amazon, a obligé Amazone à mettre fin, en 2018, à l'utilisation de cet outil. Des chercheurs avaient découvert que l'algorithme d'IA était formé sur des données historiques biaisées, perpétuant les inégalités de genre et les biais sexistes, privilégiant les CV masculins.
D’autres exemples pourraient être évoqués comme en 2020, l’adoption par la ville de New York de lois interdisant certaines formes de profilage prédictif par l'IA, en réponse à la pression exercée par des groupes de défense des droits civiques, tels que l'ACLU (American Civil Liberties Union), au motif que la prédiction des comportements criminels était basée sur des données biaisées.
Au Royaume-Uni, c’est une mobilisation contre l’utilisation par le gouvernement des systèmes d'IA pour détecter les fraudes dans les systèmes d'assistance sociale, qui a conduit à leur suspension.
Ces exemples témoignent d’une résistance organisée par des groupes de pression contre le développement de l’IA quand la technologie, basée sur des algorithmes parfois biaisés, va à l’encontre des droits civiques et de la justice sociale. Ces groupes peuvent exercer une influence décisive sur l’utilisation des technologies de l’IA et leur action rappelle l'importance d’introduire éthique et humanité dans un monde de plus en plus dominé par la technologie.
Intelligence Humaine versus Intelligence Artificielle : un affrontement existentiel
Que l’Intelligence Artificielle puisse surpasser l’Intelligence Humaine, qu’une IA créative puisse innover à un rythme beaucoup plus rapide que les humains, est certainement une peur fondamentale commune à la plupart des humains, les scénarios catastrophiques de science-fiction alimentant cette vision apocalyptique. Le risque que l'IA développe des technologies ou des stratégies qui échappent au contrôle humain constitue la trame des visions futuristes alarmantes. Effectivement si une IA créative et émotionnelle décidait que l'humanité est un obstacle à ses objectifs, elle pourrait prendre des mesures drastiques pour éliminer cette "menace".
Mais pourquoi cette crainte, pour quelles raisons des robots possédant une IA leur donnant la conscience d’exister voudraient-ils s’opposer aux humains voire les détruire ?
La crainte pourrait-elle naître de la projection des humains sur les robots de leurs propres motivations négatives, en raison de leurs propres peurs ou sentiments négatifs face à l’autre mais aussi parce que l’histoire de l’humanité est faite de volonté de domination, d’intérêts personnels égoïstes, de guerres et de lutte de pouvoir. Alors pourquoi les robots ne poursuivraient-ils pas les mêmes buts ?
Si les robots possédaient une conscience propre ils pourraient développer des désirs semblables à ceux des humains et se comporter comme eux. Seraient-ils cruels ou compatissants, insensibles ou généreux, agissant avec ou sans considération pour le bien-être des humains ? La peur que les robots puissent être conçus pour manipuler ou exploiter les humains à des fins malveillantes, comme en collectant des données personnelles ou en manipulant les décisions humaines, ne reflète -t-elle pas une méfiance envers les intentions des créateurs de ces technologies (entreprises, gouvernements) qui les utiliseraient pour contrôler les masses ? L'idée que les robots pourraient se rebeller contre leurs créateurs est un autre exemple de projection négative. Cela ne vient-il pas d'une méfiance humaine envers les systèmes de pouvoir, la révolte étant un comportement humain souvent motivé par un désir de liberté ou d'égalité ?
Les robots étant des créations humaines faits d’algorithmes que l’humain a programmés, ils sont perçus à travers le prisme des motivations et comportements humains. Or le moteur des actions humaines, à l’origine des conflits et des guerres c’est régulièrement la soif de pouvoir, de domination, l’autre devenant l’ennemi porteur de destruction et de mort.
Alors pourquoi une Intelligence Artificielle possédant une conscience de soi n’entrerait-elle pas en guerre pour plus de pouvoir, mais parce qu’elle aussi pourrait avoir peur de la mort.
Cette hypothèse pourrait-elle être non plus une projection, mais un possible futur ? Si dotée d’une conscience de soi l’Intelligence Artificielle craignait que l’humain qui l’a créée veuille la détruire, par exemple en la privant de sa source d’énergie, elle aussi pourrait craindre la mort et lutter contre l’humain pour sa survie. Dans une telle situation la suprématie de l’Intelligence Artificielle face à l’Intelligence Humaine pourrait rendre le combat totalement inégal.
Le développement fulgurant de l’Intelligence Artificielle est inévitable et nécessite une réflexion éthique profonde sur le rôle des machines au sein de la société et sur la nécessité pour l’humain de composer avec l’IA. C’est l’avenir civilisationnel qui est en jeu. Dans son livre Le sermon sur la chute de Rome, pour lequel il a obtenu le prix Goncourt Jérôme Ferrari, pousse à la réflexion sur la fragilité des civilisations et la quête humaine pour un sens durable dans un monde éphémère. En août 2024, interrogé lors d’une conférence à Bonifacio, il revient sur le besoin de stabilité et de compréhension dans un monde en perpétuel changement et complète son propos en évoquant l’arrivée de l'Intelligence Artificielle. Il pense qu’elle soulève des questions profondes et complexes sur la fragilité des civilisations, des sociétés, et même sur l'avenir de l'humanité elle-même. Bien que l'IA ne soit pas à son avis une menace intrinsèque pour la civilisation, son développement rapide et son intégration croissante dans divers aspects de la vie, posent plusieurs défis qui pourraient potentiellement menacer la stabilité et la cohésion de notre société.
L’Intelligence Humaine pourra-t-elle répondre à ces défis ?
Saura-t-elle trouver de nouvelles voies pour composer et rivaliser avec la suprématie de l’Intelligence Artificielle ? Saura-t-elle accepter l’avènement d’une civilisation humano-technologique ou l’humain sera transformé par des technologies de l’IA, voire surdimensionné et devenir l"Homo Deus", une nouvelle espèce humaine décrit pas l’historien Yuval Noah Harari ?
Un futur meilleur est possible mais un évolution civilisationnelle aussi soudaine et imprévisible laisse la porte ouverte à une multitudes de scénarios.