L’IA dans la vie scolaire se doit d’être éthique

Jérôme BERANGER
CEO de GOODALGO
Chercheur (PhD) associé à l’INSERM 1027 – BIOETHICS – CERPOP – Univ. Toulouse 3
Expert IA & Ethique pour l’INSTITUT EUROPIA
Ethics Director pour World AI Film Festival (WAIFF)
Auteur de plusieurs ouvrages dont : « Le journal de Mève » (DBS, Octobre 2025)
La vie scolaire ne se limite pas à la simple transmission des savoirs. Elle englobe l’ensemble des interactions quotidiennes entre les élèves, les enseignants, les familles et les institutions, comme : la gestion du temps scolaire, le suivi des comportements, l’encadrement des activités périscolaires, et l’accompagnement personnalisé. Dans ce périmètre riche et complexe, l’introduction de l’Intelligence Artificielle (IA) constitue une transformation majeure. L’école, espace de socialisation et de construction citoyenne, devient alors un lieu d’expérimentation technologique, où la question éthique ne peut être éludée.
En effet, depuis quelques années, les établissements scolaires voient apparaître une diversité d’outils numériques intégrant l’IA, tels que : les plateformes d’apprentissage adaptatif, les logiciels de correction automatisée, les dispositifs de détection du décrochage, ou encore les systèmes de gestion administrative prédictive. Ces technologies promettent de libérer du temps pour l’enseignant, d’offrir des parcours personnalisés aux élèves et de rendre la scolarité plus efficace et interactif. Mais cette montée en puissance technologique soulève des interrogations sur l’impact à long terme : comment préserver l’autonomie intellectuelle, l’esprit critique, et la culture générale des élèves ? Comment garantir l’équité d’accès et la transparence des décisions automatisées ? Comment adapter et faire évoluer la vie scolaire face à l’émergence de l’IA notamment générative ?
L’éthique s’impose naturellement pour éviter que l’IA scolaire ne devienne une simple logique d’optimisation technocratique. Elle doit assurer la protection des données des mineurs, prévenir la standardisation pédagogique, et veiller à ce que l’IA demeure un outil au service de la relation éducative et non une fin en soi où les acteurs deviennent totalement dépendant de cette dernière. Sans un cadre éthique fort, l’école risque d’installer des mécanismes de surveillance intrusive, de renforcer les inégalités ou de réduire l’élève à un profil algorithmique figé, standardisé, et dénué de sens critique.
Enjeux et impacts de l’IA dans la vie scolaire
L’IA permet un apprentissage personnalisé grâce à des tutoriels adaptatifs et un retour instantané qui permettent aux élèves de progresser à leur propre rythme. Elle favorise également l’accessibilité pour les élèves en situation de handicap, par exemple à travers des outils de transcription ou de synthèse vocale. Toutefois, une dépendance excessive à ces outils peut s’installer, limitant l’autonomie intellectuelle et le libre arbitre. Certains élèves peuvent développer une passivité cognitive, délaissant l’effort de réflexion personnelle et de quête de sens au profit de réponses préconstruites et déstructurées.
De plus, l’IA soulage les enseignants de tâches répétitives comme la correction ou la saisie de résultats, ce qui leur permet de se concentrer sur l’accompagnement pédagogique. Elle offre aussi une aide précieuse pour adapter les parcours aux besoins spécifiques de chaque élève. Cependant, cette automatisation modifie le rôle de l’enseignant, qui passe du statut de transmetteur à celui de facilitateur. Ce repositionnement peut entraîner une perte de souveraineté pédagogique, notamment si les recommandations de l’IA prennent le pas sur l’expertise et la plus-value humaine.
Par ailleurs, l’IA transforme les contenus d’enseignement et les programmes scolaires en intégrant des compétences numériques et critiques liées à son usage. Elle favorise l’émergence de nouvelles formes d’évaluation automatisée et pousse à reconfigurer les rythmes scolaires et les espaces d’apprentissage, avec un développement accru des modalités et des processus hybrides. Cette transformation s’accompagne souvent d’une coopération avec des entreprises technologiques, impliquant parfois une externalisation de services éducatifs sensibles.
En outre, l’usage de l’IA peut avoir un impact positif sur la motivation et l’engagement scolaire lorsqu’il valorise la progression personnalisée. En revanche, il peut également renforcer l’isolement affectif si les interactions humaines diminuent, ou accentuer les inégalités sociales en cas d’inégal accès aux technologies. La capacité des élèves à développer des compétences critiques et métacognitives peut être favorisée par un bon usage des outils, mais elle risque aussi d’être affaiblie s’ils deviennent des consommateurs passifs.
Par ailleurs, les technologies peuvent introduire de nouvelles formes de harcèlement scolaire, par exemple via les plateformes numériques ou les assistants conversationnels mal utilisés.
Enfin, les enseignants doivent intégrer de nouveaux outils numériques à leur pratique, ce qui peut accroître leur charge mentale. La crainte d’un déclassement ou d’une perte de contrôle sur leur métier peut émerger, notamment si les systèmes d’IA influencent leurs décisions pédagogiques et leurs constructions de cours. Cela souligne le besoin accru de formation continue, afin de maîtriser l’usage éthique et professionnel des outils basés sur l’IA.
Encadrement éthico-juridique
La protection des données personnelles et de la vie privée des mineurs est un enjeu majeur. Les systèmes d’IA peuvent engendrer une surveillance excessive, avec la traçabilité des comportements, le profilage automatique, et la constitution de dossiers numériques permanents. Les élèves doivent conserver un droit à l’erreur, à l’oubli et à la déconnexion pour préserver leur liberté de développement.
Les pratiques pédagogiques peuvent être tracées et évaluées par des systèmes algorithmiques, soulevant des questions sur l’équilibre entre l’autonomie professionnelle et les prescriptions imposées par les plateformes. Il est essentiel de préserver un espace de liberté pédagogique et d’assurer que l’évaluation des enseignants ne repose pas exclusivement sur des indicateurs automatisés.
Désormais, les IA doivent être conformes au Règlement Général sur la Protection des Données (RGPD), et protéger spécifiquement les données des mineurs. En cas de dysfonctionnement ou de discrimination, la responsabilité juridique doit être clairement définie. Les plateformes d’IA éducatives doivent être encadrées par la réglementation française et européenne, notamment l’AI Act (1), pour garantir une utilisation encadrée et transparente dans l’enseignement obligatoire.
Prenons, le cas du Comité d’éthique mis en place par Docaposte Éducation qui constitue un exemple inspirant d’intégration de la réflexion éthique dès la conception jusqu’à l’usage des outils numériques dans l’écosystème scolaire, comme l’évaluation des enjeux éthiques liés à la question du droit à la déconnexion des élèves utilisant la plateforme scolaire PRONOTE. Une telle démarche montre comment un acteur privé peut contribuer à une approche responsable de l’innovation technologique dans le champ de la vie scolaire.
Dès lors, une bonne gestion éthique des données scolaires implique la mise en place d’un registre clair des finalités et usages, la minimisation et l’anonymisation systématiques des données collectées, ainsi qu’une sensibilisation de tous les acteurs (direction d’écoles, professeurs, élèves, parents, recteur d’académie, etc.) aux enjeux numériques. Des audits réguliers permettraient d’évaluer les impacts des systèmes en place. Il est aussi recommandé de désigner des délégués à la protection des données spécifiquement dédiés à la vie scolaire. La formation des équipes éducatives à l’usage éthique de l’IA est indispensable, en particulier dans le cadre de la lutte contre le harcèlement scolaire. La transparence des systèmes et l’explicabilité des décisions doivent être garanties.
Enfin, les IA doivent rester sous gouvernance humaine, avec des outils de détection des signaux émotionnels voire cognitifs, ou de discours haineux encadrés, et une vigilance particulière sur les usages prédictifs visant à repérer des élèves en risque de décrochage scolaire.
En définitive, l’introduction de l’IA dans la vie scolaire ouvre des opportunités pédagogiques et organisationnelles inédites, mais aussi des risques majeurs en matière de surveillance, d’équité et de dépendance technologique. L’IA doit être pensée comme un levier et une aide pédagogique, jamais comme un substitut à l’enseignant ou au rôle social et éducationnel de l’école. Seule une intégration éthique, juridiquement encadrée et démocratiquement débattue, permettra aux système d’IA d’accompagner la vie scolaire dans sa mission fondamentale : former des citoyens libres, critiques, structurés, cultivés et responsables, capables d’évoluer dans un monde numérique en constante transformation. L’IA est appelée à jouer un rôle croissant dans la scolarité, avec des scénarios allant de l’assistance administrative à la personnalisation complète des parcours. Il faudra redéfinir la place de l’enseignant et de l’élève dans un écosystème hybride. Dès lors, la promesse d’une démocratisation de l’accès aux savoirs et aux compétences devra être confrontée à la réalité des usages. Enfin, il sera nécessaire de soutenir la recherche et les expérimentations éthiques pour guider l’évolution des pratiques éducatives dans un cadre respectueux des droits fondamentaux des acteurs. Cela pourrait se concrétiser par la mise en place d’un comité éthique des établissements scolaires à l’échelle académique accompagnant l’introduction de manière éthique de l’IA au sein des établissements scolaires. Cette instance aurait pour mission d’évaluer les risques, anticiper les dérives et proposer des recommandations en lien avec les droits fondamentaux des élèves, les attentes et les exigences des enseignants, et le cadre réglementaire en vigueur.
1, Règlement européen qui introduit un cadre réglementaire et juridique commun pour une IA digne de confiance et éthique au sein de l'Union européenne. Il est entré en vigueur le 1er août 2024.
