europia logo white

Les minorités à l’épreuve de l’intelligence artificielle

futuristic-computer-eq`uipment-glows-dark-connected-by-network-server-generated-by-ai-1080x675.png
23 May, 2024

Les minorités à l’épreuve de l’intelligence artificielle

par Diana Sebbar, Directrice Executive 3iA Côte d'Azur


L’intelligence artificielle (IA) ouvre de formidables perspectives dans de nombreux secteurs, et sa maîtrise présente des enjeux majeurs de développement économique et de souveraineté pour les États, qui rivalisent d’investissements dans ce domaine.

Néanmoins, à l’échelle des individus et de la société, l’IA présente des défis, et particulièrement pour les minorités. Si l’internet leur avait permis de pouvoir faire entendre leur voix sans autorisation, l’IA risque au contraire de les rendre de nouveau invisibles, voire pire.

L’utilisation de l’IA influence en effet chaque jour davantage la diffusion de l’information et la prise de décision dans nos organisations individuelles et collectives. Or l’IA comporte des biais, et certaines décisions ont des conséquences plus graves que d’autres. Personne ne souhaite en effet voir le montant de sa police d’assurance augmenter, ou se voir un jour refuser un crédit parce qu’une IA aura considéré que son milieu socio-économique ou son état de santé le justifie. Il serait également injuste pour une femme de voir sa candidature à un poste écartée d’emblée car l’algorithme qui l’a pré-examinée a appris à sous- noter les CV féminins – comme cela a par exemple été le cas pour le logiciel de recrutement utilisé pendant quatre ans par Amazon. En matière de santé, les conséquences peuvent être encore plus sérieuses lorsque les chances sont plus faibles qu’une IA détecte une pathologie chez certains patients car elle a été insuffisamment entraînée sur des individus de leur sexe ou de leur couleur de peau par exemple. Autrement plus grave encore, l’usage militaire et sécuritaire de l’IA à l’encontre des minorités ethniques est un risque avéré, et l’histoire récente nous en a malheureusement fourni plusieurs exemples : surveillance de la communauté ouïgoure par un système de reconnaissance faciale par l’État chinois ; utilisation de l’IA comme arme de guerre en Ukraine ou à Gaza – où la quasi-absence de supervision humaine du système « Lavender » est à l’origine de conséquences dramatiques à l’égard des civils palestiniens. Ces quelques exemples mettent cruellement en lumière les enjeux du rapport entre éthique et technologie.


Biais de représentativité

À l’image de ceux qui les construisent, les IA ont en effet des biais (racistes, sexistes…) qui peuvent conduire à des prédictions elles-mêmes biaisées, entraînant parfois de lourdes conséquences sur les personnes et les groupes concernés.

Les systèmes d’IA ne sont en effet que des machines qui reposent sur des algorithmes conçus par des humains selon leur propre vision du monde et du cas considéré. Ils comportent donc des limites qui les rendent par essence inaptes à rendre compte de la subtilité et de la diversité des situations, des cultures et des avis. La machine n’a évidemment aucune « conscience » de ces biais, et elle ne fait que reproduire ceux appris à partir des données dont elle a été nourrie.

C’est pourquoi il y a un enjeu fondamental autour des jeux de données d’entraînement des IA qui devraient pouvoir refléter la diversité – de genre, sociale, culturelle et linguistique – présente dans la société.

À défaut, l’IA ne fait que reproduire les stéréotypes et discriminations existants ; et plus encore car, en se basant sur des moyennes pour en déduire des vérités générales, les recommandations basées sur les algorithmes amplifient et automatisent les clivages, ce qui laisse craindre une hausse des inégalités et de la fracture sociale, voire de véritables catastrophes lorsque le contrôle de la décision prise par la machine échappe à l’homme.

Si l’IA est indubitablement source de progrès dans de nombreux secteurs, la question des biais de représentativité (mais aussi celle de la relation homme-machine) est donc un sujet de préoccupation majeure. Si, comme l’écrit Asma Mhalla, l’IA est au cœur des batailles culturelles et idéologiques, il y a urgence à se réapproprier les ressorts de cette technologie pour qu’elle ne soit pas source d’exclusion, de discrimination et d’ostracisme dans nos démocraties.

Le 21 mars dernier, l’ONU appelait États membres et autres parties prenantes à « cesser de se servir des systèmes d’intelligence artificielle qu’il est impossible d’utiliser dans le respect des droits humains ou qui présentent des risques excessifs pour l’exercice des droits humains ». Les régulateurs du monde entier bâtissent des lois prescrivant des technologies plus transparentes, lisibles et traçables pour en finir avec la « boîte noire » et permettre d’identifier et de corriger les biais.

En Europe, chercheurs et politiques alertent sur l’urgence de la situation et appellent à prévenir l’utilisation de données biaisées reflétant les inégalités de genre ou les discriminations sociétales.


Promouvoir la diversité dès la conception

Si réguler est indispensable, il est également crucial de former massivement étudiants, chercheurs, ingénieurs aux enjeux éthiques afin d’amener une réflexion critique systématique sur les biais dans les jeux de données utilisés pour l’entraînement des modèles d’IA, et tout au long de leur processus de conception et de déploiement.

D’après les experts, il convient également de promouvoir la diversité des points de vue dès l’origine de la conception de l’IA, notamment en augmentant la diversité dans les métiers de l’IA où les minorités sont aujourd’hui sous-représentées.

La prise en compte des minorités n’est pas seulement un impératif éthique ou moral. La diversité constitue aussi un levier au service de la croissance des individus et des organisations, ainsi qu’un ressort fondamental de la paix et du développement durables des nations.

Si pour des raisons économiques et (géo)politiques, la protection de la dignité et des droits humains n’est pas au cœur des préoccupations des acteurs majeurs de l’IA, le sursaut vers un usage plus éthique pourrait/ devrait venir des États et autres organisations conceptrices ou utilisatrices d’IA.


Cliquer ici pour retrouver l'article original

Partager:

Designed by Algoretico © 2024 All Rights Reserved