L’Odysée éthique de l’humanité digitale

L’Odysée éthique de l’humanité digitale
par Jérôme Beranger, Expert "IA & Éthique"
Dans le vaste océan de la technologie, l’intégration de raisonnements éthiques dans le code d’une Intelligence Artificielle (IA) est devenue l’odyssée moderne d’Ulysse, une quête perpétuelle de morale et de sens. Tel un navigateur intrépide, l’humanité explore les horizons digitaux, naviguant parfois à vue à travers les eaux troubles de l’innovation. Les écueils des pratiques numériques excessives non régulées et des biais non détectés se dressent comme des sirènes tentatrices, menaçant de détourner ces usages technologiques vers des rivages dangereux. Dans ces conditions, la programmation éthique peut devenir le phare qui guide cette odyssée, éclairant le chemin complexe de l’IA vers des terres bienveillantes et pourvues de confiance. Cette quête éthique est le voyage intemporel vers un avenir numérique où la technologie et l’éthique danseraient en harmonie.
Pour aborder le sujet essentiel de l’éthique appliquée à l’IA, les premières questions qui me viennent immédiatement à l’esprit sont : est-ce que les machines peuvent assimiler des principes moraux, et ainsi apprendre à suivre un code éthique de manière intuitive ? Dans ce contexte, comment être sûr que ces machines prennent des décisions éthiquement responsables ou contribuent à les prendre ? La question de leur capacité à discerner le bien du mal devient donc déterminante. L’enseignement de la moralité à ces systèmes d’IA représente un défi immense, d’autant plus que l’humanité elle-même n’a pas encore trouvé de réponses définitives. La moralité, imprégnée de nuance et de complexité, est profondément enracinée dans les cultures, les traditions et les expériences individuelles, la rendant difficile, voire impossible, à définir de manière universelle. Ces variations soulignent la complexité de la moralité et mettent en lumière les défis inhérents à la programmation éthique des machines, surtout dans un contexte mondialisé où les normes et les valeurs peuvent différer. La tâche à accomplir est donc double : il est nécessaire non seulement de définir une base morale pour ces machines, mais aussi de les rendre adaptables à la diversité et à la complexité des situations auxquelles elles seront confrontées. Les débats philosophiques et éthiques sur ce qui est considéré comme « bien » ou « mal » existent depuis la nuit des temps. La moralité ne peut pas être réduite simplement à une série d’instructions codées ou à des réponses binaires. Elle découle d’une réflexion profonde, d’un contexte culturel et d’expériences vécues. Pour véritablement inculquer un sens moral aux machines, il est nécessaire d’adopter une approche holistique, combinant programmation, philosophie, sociologie et éthique afin de traiter les nuances et les complexités de la moralité humaine.
Un ensemble de valeurs éthiques associées à l’IA émerge, telles que la déontologie et la responsabilité des concepteurs, l’émancipation des utilisateurs, l’évaluation, la transparence, l’intelligibilité, la loyauté et l’équité des systèmes, ainsi que l’étude de la coévolution entre l’humain et la machine. Les machines intelligentes dotées de compétences sociales et affectives soulèvent de nombreuses questions éthiques, juridiques et sociales. La question de la responsabilité en cas d’accident se pose : est-ce le fabricant, l’acheteur, le professionnel ou l’utilisateur qui est responsable ? Comment réglementer leur fonctionnement ? Faut-il intégrer des règles morales dans leur programmation ? Doit-on contrôler leur utilisation au moyen de permis ? Quelles sont les tâches pour lesquelles nous souhaitons créer ces entités artificielles ? Comment préserver notre intimité et nos données personnelles ? Il est essentiel d’évaluer tout système avant de le mettre entre les mains des utilisateurs. Comment évaluer une intelligence artificielle qui apprend des humains et s’adapte à eux, voire qui apprend par elle-même ? Peut-on prouver qu’elle se limitera aux fonctions pour lesquelles elle a été conçue et qu’elle ne dépassera jamais les limites établies ? Qui supervisera la sélection des données que la machine utilise pour son apprentissage, car celles-ci orientent ses actions ? Ces questions soulignent la nécessité de débattre et de mettre en place des cadres éthiques, juridiques et réglementaires appropriés pour guider le développement, l’utilisation et la supervision de l’intelligence artificielle. Il est impératif d’impliquer diverses parties prenantes, y compris les chercheurs, les concepteurs, les utilisateurs et la société dans son ensemble, afin de trouver des réponses équilibrées et de garantir que les avantages de l’IA sont accompagnés d’une responsabilité et d’une utilisation éthique adéquate.
Dès lors, l’utilisation éthique dans le digital peut représenter un progrès majeur, voire essentiel, pour notre société. Pour cela, il paraît capital d’auditer les traitements algorithmiques à travers des instances de labellisation, de certification et de régulation. Nous devons éviter de simplifier les interactions complexes entre les êtres humains et leur environnement, en rejetant les idées dépassées. Le numérique offre de nouvelles compréhensions et perspectives sur les relations entre les individus et les progrès technologiques. Cependant, il faut rester vigilant face aux éventuelles conséquences négatives des IA autonomes et des avancées technologiques comme dans le cas des implants cérébraux. Il me semble essentiel de comprendre pleinement les traitements algorithmiques, de garantir leur transparence et de préserver la dignité des personnes. Un travail collaboratif et transversal entre la recherche scientifique, les entreprises, les institutions gouvernementales, l’enseignement et la société civile est nécessaire pour éviter que les géants du numérique ne deviennent les seuls détenteurs des règles éthiques qui façonneront notre avenir. Le code doit être préservé en intégrant des pratiques de développement de qualité et en y incorporant des règles éthiques. De plus, il me paraît primordial d’établir une gouvernance des données numériques et de redéfinir l’éthique du numérique en mettant l’accent sur la responsabilité dès la conception.
En définitive, j’ai la conviction et l’espoir que la société intégrera toujours une part essentielle de conscience et de relations humaines, et ne pourra jamais s’en remettre totalement, d’une part, à des décisions prises par des algorithmes – même hautement performants et fiables – et, d’autre part, à des échanges interpersonnels au sein d’un monde virtuel, du fait d’un manque de nuance, de compassion, de ressenti, d’écoute et d’empathie. Il convient alors de repenser notre façon d’aborder la société contemporaine, l’usage et l’impact du numérique dans nos vies et nos pratiques quotidiennes, avant que le plafond de verre éthique n’explose sans pouvoir y changer quelque chose…
