NEWS-JURITECH – N°13 – 05 AOUT 2025 – ©DROIT-NUMÉRIQUE.CD
Exétat 2025 sur fond d’une correction assistée par l’intelligence artificielle. Quels enjeux éthiques à prendre en compte ?

Joël Mobeka Ekabela
Digital Ethics Officer, Chercheur en Droit du cyberespace africain, en Gestion des conflits et anthropologie juridique

L’ESSENTIEL
Le 28 juillet 2025, jour du lancement de la 58ème édition de la session ordinaire de l’Examen d’Etat (EXETAT), a vu la Ministre de l’Education Nationale et Nouvelle Citoyenneté annoncer légitimement la rupture avec les sentiers bâtis, en choisissant de s’appuyer sur un système d’intelligence artificielle au nom de la fiabilité et de l’efficacité de la correction des épreuves. Le système a été révélé en avril 2025 sous l’identité de « S-Note Manager », une technologie permettant une correction automatique des épreuves tout en gardant un haut niveau de supervision humaine par les experts de l’Inspection Générale. |

Si l’innovation numérique introduite par la Ministre de l’Education Nationale et Nouvelle Citoyenneté ne s’éloigne pas de l’esprit de la Loi-Cadre n° 14/004 du 11 février 2014 de l’enseignement national qui encourage l’adoption des technologies de l’information et de la communication, elle fascine les technophiles, modérés ou forts, autant qu’elle inquiète les technophobes. L’inquiétude est fondée sur le fait que jusqu’à l’annonce de l’introduction du système intelligent, rien n’a été mentionné quant à la phase de test, d’évaluation des risques ou d’un cadre éthique devant l’encadrer.
Si le système d’intelligence artificielle renferme la promesse de la rapidité et de l’objectivité dans l’évaluation des épreuves, il soulève néanmoins des questions éthiques fondamentales, notamment celles liées à l’équité, à la transparence et à la responsabilité. Dès lors, faut-il se laisser fasciner par une avancée vers l’innovation technologique, ou doit-on redouter une précipitation technologique potentiellement préjudiciable aux droits des élèves ? Peut-on confier l’avenir scolaire de centaines de milliers d’élèves à une machine sans en garantir la fiabilité et l’équité ?
Un système d’intelligence artificielle mieux que le correcteur humain ?
Inviter l’intelligence artificielle à l’éducation n’est pas un phénomène nouveau, car de nombreux pays y recourent pour corriger des questionnaires à choix multiples, traquer les plagiats, ou personnaliser les apprentissages, et dans le cas de l’Examen d’Etat, elle est censée accélérer la correction, réduire les erreurs humaines, et harmoniser les notations.
A ce jour, du point de vue éthique, on relève positivement la prise en compte d’un principe essentiel fondé sur la « surveillance humaine », à travers la supervision par les experts de l’Inspection Générale. Encore faut-il que ces derniers bénéficient d’un programme de renforcement des capacités en intelligence artificielle.
Toutefois, le raisonnement éthique conduit à s’inquiéter, dans la mesure où aucune information publique claire n’a été fournie sur le fonctionnement du fameux S-Note Manager, ni sur les modalités de sa conception, de son test ou de sa validité. On peut aussi légitimement s’interroger sur la gestion des données à caractère personnel captées par le système, au cas où il était lié à un Data center, au pays ou à l’étranger. Une kyrielle de questions alors sont soulevées !
Une technologie sans boussole ?
Ce que l’on sait actuellement, c’est que S-Note Manager est une solution innovante développée par le Ministère de l’Education Nationale et Nouvelle Citoyenneté pour simplifier, accélérer et fiabiliser le processus de correction automatique de l’examen d’Etat. Les enseignants, les syndicats, les experts indépendants ont-ils été associés à cette fascinante innovation ? Si d’autres parties prenantes n’étaient pas associées tout au long du processus, ce serait constitutif d’une opacité pour l’adoption d’un système comme solution aux défis liés à la correction des épreuves de cette envergure. Ce serait de fait l’introduction par l’Etat d’une boite noire dans un mécanisme déjà fragile, sans information publique claire ni formation en faveur de celles et ceux qui sont appelés à interagir avec elle.
Cette opacité inquiète d’autant plus, car, comme l’affirme Jacques Ellul, les technologies, en l’occurrence l’intelligence artificielle, ne sont pas neutres. L’IA apprend à partir de données humaines, et peut reproduire, voire exacerber, les biais qui s’y trouvent. Comment peut-on certifier que les données d’entrainement du système vont permettre une correction ou une notation équitable ?
Des principes éthiques ignorés ou méconnus ?
Sans qu’ils ne soient perçus comme un frein à l’innovation, les principes éthiques globalement adoptés constituent de véritables garde-fous au regard des risques inéluctables liés à l’utilisation des systèmes d’intelligence artificielle. A ce sujet, le Consensus de Beijing sur l’IA et l’éducation sous l’égide de l’UNESCO (UNESCO, 2019) insiste sur la nécessité de tests transparents, d’une gouvernance éthique claire et de l’implication d’un large éventail des parties prenantes. En outre, la Recommandation mondiale de l’UNESCO sur l’éthique de l’IA (UNESCO, 2021) met un accent sur le fait que toute décision automatisée, comme c’est le cas de S-Note Manager, doit être compréhensible, explicable et contestable, en considération de principes de précaution, de transparence, de responsabilité et d’équité.
Bien plus, l’UNESCO a élaboré un outil pour guider les Etats dans l’élaboration de leurs politiques intégrant les systèmes d’intelligence artificielle. C’est le cas de la méthodologie d’évaluation de l’impact éthique de l’intelligence artificielle.
Or, force est de constater qu’excepté la surveillance humaine, des principes adoptés par les 193 Etats membres de l’UNESCO, dont la République démocratique du Congo, ne semblent pas être pris en compte tout au long du processus d’adoption de S-Note Manager en appui aux correcteurs. Le système est lancé en pleine session sans phase expérimentale, sans charte éthique, sans comité éthique, et sans possibilité de recours clair pour les élèves. Ce qui nous fonde pour dire qu’« une innovation technologique sans conformité éthique n’est pas un progrès, c’est véritablement un risque ».
Oui à l’innovation technologique. Mais à tout prix ?
Si l’ODD 4 de l’Agenda 2030 des Nations Unies appelle les Etats à moderniser leurs systèmes éducatifs, il y a lieu de souligner que tout doit être fait en harmonie avec le respect des droits fondamentaux, en l’espèce les droits des élèves. L’État congolais ne peut déléguer à une machine, aussi puissante ou performante soit-elle, la responsabilité de juger du mérite scolaire, sans garantir la transparence, la justice, et la possibilité d’erreur humaine ou des biais algorithmiques.
Pour éviter une dérive technocratique, il nous paraît plus qu’urgent de procéder à un audit public et indépendant du système d’IA utilisé, afin d’en savoir plus sur les données d’entrainement, les critères de notation, la sécurité du système et son comportement face aux ambiguïtés.
En sus, il vaut mieux, en s’inspirant des outils proposés par l’UNESCO, adopter une charte éthique nationale sur l’IA dans l’éducation, dans le but d’encadrer les usages, de préciser les responsabilités en présence et de poser des principes de recours en cas d’erreur du système en faveur des élèves qui se sentiraient lésés ou les parents qui en feraient la demande. Un autre élément essentiel dont il faut tenir compte, dans la chaine de valeur, c’est bien la formation des enseignants ou des syndicats, car c’est un gage pour l’appropriation et la transparence. A ce titre, l’Etat Congolais aura l’avantage d’intégrer dans les curricula de l’enseignement, le Référentiel des compétences en IA au profit des apprenants et des enseignants, publié par l’UNESCO (UNESCO, 2024).
Que peut-on retenir en définitive ?
Certes, le recours à l’Intelligence artificielle dans la correction de l’examen d’Etat 2025 constitue un tournant historique pour le système éducatif congolais. Quelque formidable qu’elle puisse être, à l’état actuel, cette innovation technologique, sans éthique, véritable boussole, devient une menace pour l’équité et la confiance du public.
L’examen d’Etat serait-il un terrain d’expérimentation silencieuse au regard de sa portée dans la construction des humanités ? Serait-ce un déni démocratique si la technologie avançait plus vite que la transparence, au nom du progrès ? Un Comité nationale d’éthique appliquée à l’éducation serait une instance habilitée à répondre à ces questions.
Moralité, comme le faisait remarquer le Comité national pilote d’éthique du numérique en France « une intelligence artificielle digne de confiance » est une « intelligence artificielle sûre, fiable et éthique ». Il serait bénéfique que l’opinion publique comprenne les fonctionnalités du système d’IA utilisé, en précisant les avantages, limites et risques associés.
Pour aller plus loin :
- UNESCO, Recommandation sur l’éthique de l’intelligence artificielle, disponible sur https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre ;
- UNESCO, Consensus de Beijing sur l’éducation et l’intelligence artificielle, disponible sur https://unesdoc.unesco.org/ark:/48223/pf0000368303 ;
- Evaluation de l’impact éthique de l’intelligence artificielle, disponible sur https://unesdoc.unesco.org/ark:/48223/pf0000386276 ;
- UNESCO, Référentiel des compétences en IA pour les enseignants, disponibles sur https://unesdoc.unesco.org/ark:/48223/pf0000392681 ;
- UNESCO, Référentiel de compétences en IA pour les apprenants, disponible sur https://unesdoc.unesco.org/ark:/48223/pf0000392652 ;
- Ministère de l’Education Nationale et Nouvelle Citoyenneté, L’intelligence artificielle au cœur de la correction de l’examen d’Etat, disponible sur https://edu-nc.gouv.cd/lintelligence-artificielle-au-coeur-de-la-correction-de-lexamen-detat/ ;
- Union Africaine, Stratégie continentale sur l’intelligence artificielle. Mettre l’IA au service du développement et de la prospérité de l’Afrique, disponible sur https://au.int/sites/default/files/documents/44004-docFR_Strategie_Continentale_sur_lIntelligence_Artificielle_3.pdf