Logo-CGT-AFPA-400

Déclaration CGT AFPA – CSEC Mars 2026
Information sur l’introduction de l’intelligence artificielle

Depuis maintenant quelques années, l’intelligence artificielle est présentée comme la prochaine révolution du travail. Et c’est précisément pour cette raison que le sujet arrive aujourd’hui devant le CSEC des 25 et 26 mars 2026 dans le cadre de cette information.

La CGT tient toutefois à exprimer son incompréhension quant à l’évolution de l’ordre du jour, qui ne prévoit finalement qu’une simple information du CSEC sur un sujet qui, de toute évidence, relève de transformations potentielles de l’organisation du travail, des métiers et des orientations de l’établissement.

À écouter certains discours, elle pourrait presque résoudre tous les problèmes : améliorer la productivité, transformer les métiers, moderniser les organisations et même, pourquoi pas, réenchanter le travail.

Nous serions tentés d’y croire… si l’expérience des transformations numériques passées ne nous avait pas appris une chose simple : derrière les discours technologiques, il y a toujours des choix très concrets d’organisation du travail, d’emploi et de conditions de travail.

La CGT rappelle que ce sujet, nous l’avions déjà soulevé lors du CSEC de mars 2025. À l’époque, nous dénoncions déjà l’absence d’informations concrètes sur l’introduction de l’intelligence artificielle à l’AFPA, alors même que plusieurs travaux internes avaient été engagés, notamment au sein de la direction de l’ingénierie.

Depuis plus d’un an, la CGT alerte sur l’introduction de l’intelligence artificielle à l’AFPA. Un an plus tard, nous constatons que les usages progressent, que les discours se multiplient… mais que les informations concrètes, elles, restent toujours aussi rares.
Un an plus tard, force est de constater que les questions posées à l’époque restent pour l’essentiel sans réponse claire. Les annonces du DG sur la modernisation de l’offre et l’intégration de l’intelligence artificielle se multiplient, mais les représentants du personnel ne disposent toujours pas d’une vision précise :

• des usages réels de l’IA au sein de l’AFPA
• des technologies envisagées
• des choix de prestataires
• des investissements engagés
• des impacts potentiels sur les métiers et l’organisation du travail.
• des conséquences sur l’emploi et potentiellement sur l’aggravation de la précarité à l’AFPA

Or l’intelligence artificielle n’est pas une question abstraite. Elle peut transformer profondément le travail des salarié·es dans l’ensemble des activités de l’AFPA : ingénierie pédagogique, accompagnement des publics, fonctions support, encadrement et pratiques managériales.

Elle peut modifier :

• les contenus pédagogiques
• les modalités d’apprentissage
• les modes d’évaluation
• l’organisation du travail
• et plus largement la manière dont les missions de formation sont conçues et mises en œuvre.

Au-delà de ses effets sur le travail des salarié·es, l’intelligence artificielle pose également une question beaucoup plus large : celle de l’évolution même de la formation professionnelle.

Dans notre lettre ouverte au Directeur Général du 2 février, nous l’avons clairement indiqué et à ce jour, aucune information structurée n’a été transmise aux élu-es :

• pas de cadrage
• pas d’objectifs précis
• pas d’analyse d’impact
• pas de consultation
• pas de garanties.

Or l’intelligence artificielle n’est pas un gadget technologique. Elle soulève des enjeux multiples qui concernent directement l’AFPA :

• l’évolution des métiers et des qualifications
• l’organisation du travail et les pratiques managériales
• les conditions de travail et la charge de travail
• les choix d’investissement et les orientations stratégiques
• la qualité pédagogique et l’avenir du modèle de formation.

Elle pose également la question de l’évolution des compétences attendues des salarié·es.
Si l’intelligence artificielle conduit à mobiliser de nouvelles compétences ou à assumer de nouvelles responsabilités – notamment dans la supervision ou la validation de productions générées par des outils numériques – la question de leur reconnaissance professionnelle, y compris salariale, ne pourra pas rester un angle mort de ces transformations.

Ces évolutions devront nécessairement s’accompagner d’un véritable effort de formation pour l’ensemble des salarié·es concernés.
La CGT constate par ailleurs que des outils, des applications et des dispositifs de formation liés à l’intelligence artificielle sont d’ores et déjà accessibles aux salarié·es, mais dans le même temps, les représentants du personnel sont tenus à l’écart de ces déploiements, sans information structurée ni vision globale. Cette situation est pour le moins paradoxale et, pour la CGT, difficilement acceptable.

L’intelligence artificielle n’est pas non plus un outil neutre. Les systèmes d’IA peuvent intégrer, reproduire ou amplifier des biais, qu’ils soient liés aux données utilisées, aux choix de conception ou aux paramètres retenus.
Ces biais peuvent avoir des conséquences concrètes, notamment en matière d’égalité et de lutte contre les discriminations : reproduction de stéréotypes, inégalités de traitement entre les publics, orientation différenciée des parcours, orientation partisane ou encore décisions inadaptées fondées sur des données biaisées.

Dans un organisme comme l’AFPA, qui porte des missions de service public en matière d’accès à la formation et à l’emploi, ces risques ne peuvent pas être considérés comme secondaires.

Ils posent également une question essentielle de responsabilité : qui est responsable en cas d’erreur ou de décision contestable produite ou influencée par un système d’intelligence artificielle ? Qui est responsable en cas d’usage illégaux au regard des réglementations internes : règlement intérieur, française : CNIL et européenne : RGPD, IA Act, … .

Dans les faits, ce sont bien souvent les salarié·es qui se retrouvent seuls, en première ligne pour corriger, arbitrer ou assumer les conséquences de ces outils, sans toujours disposer des moyens, du temps ou de la formation nécessaires.

La CGT considère que ces risques doivent être identifiés, évalués et encadrés en amont, et non découverts à posteriori par les équipes.

L’intelligence artificielle soulève également des enjeux plus larges en matière de responsabilité sociale et environnementale :

• consommation énergétique des infrastructures numériques
• extraction de ressources rares nécessaires aux technologies
• multiplication des équipements électroniques et des déchets numériques
• évolution des emplois pouvant conduire à des suppressions d’emplois

Enfin, derrière les discours technologiques se pose aussi la question du travail invisible qui alimente ces systèmes, largement documentée aujourd’hui, et qui rappelle que l’intelligence artificielle repose toujours, d’une manière ou d’une autre, sur du travail humain. La CGT rappelle que le progrès technologique n’a de sens que s’il s’accompagne de progrès social.

Le Code du travail est également clair : l’introduction de nouvelles technologies doit faire l’objet d’une information et d’une consultation des instances représentatives du personnel.

À ce titre, la CGT rappelle que l’introduction ou le développement d’outils reposant sur l’intelligence artificielle, dès lors qu’ils sont susceptibles d’avoir un impact sur l’organisation du travail, les conditions de travail ou les métiers, relève pleinement des obligations d’information et de consultation du CSEC.

La CGT sera particulièrement attentive au respect de ces obligations afin que le CSEC puisse exercer pleinement ses prérogatives d’information et de consultation.
Compte tenu des enjeux potentiels sur l’organisation du travail, les métiers et les orientations stratégiques de l’établissement, le CSEC doit pouvoir disposer de tous les éléments nécessaires pour apprécier ces transformations et se prononcer en toute connaissance de cause.

Pour que les choses soient parfaitement claires pour l’ensemble des salarié·es, la CGT souhaite poser une question simple à la direction :

La direction peut-elle confirmer si l’intelligence artificielle est envisagée à l’AFPA comme un outil d’appui au travail des salarié·es ou si elle s’inscrit dans une logique de transformation – voire d’automatisation – de certaines activités aujourd’hui réalisées par les équipes ?

Mais aussi :

• Quels sont les projets d’intelligence artificielle actuellement étudiés ou en cours de développement à l’AFPA ?
• Des outils utilisant l’IA sont-ils déjà expérimentés ou utilisés dans certains services ? Quels sont-ils ?
• Sur quels critères les technologies et prestataires ont-ils été sélectionnés ?
• Ces technologies et ces prestataires sont-ils « souverains » au regard des lois européennes et françaises ? (RGPD, IA Act, …)
• Quels investissements ou coûts sont associés à ces projets ?
• Une cartographie des métiers et des activités potentiellement impactés a-t-elle été réalisée ?
• Une étude d’impact sur l’organisation du travail et les conditions de travail existe-t-elle ?
• Quels dispositifs de formation sont prévus pour les salarié·es concernés ?

Cette déclaration s’inscrit dans la continuité des positions portées par la CGT, qui n’a cessé d’alerter sur les conditions d’introduction de l’intelligence artificielle à l’AFPA.

La CGT sera particulièrement attentive au respect des obligations légales en matière d’information consultation du CSEC, afin que ses prérogatives ne soient ni réduites, ni contournées.

Pin It on Pinterest