Le 3 février, les élus du CSE-Central ont recueilli les conclusions de l’expertise triennale sur la stratégie du Groupe menée à leur demande par le cabinet JDS Experts. Dans ce rapport, le volet dédié au recours à l’Intelligence Artificielle mérite qu’on s’y penche. La CGT vous en livre une synthèse.
De quelle IA parle-t-on?
Le terme recouvre plusieurs types de technologies ou d’usages au sein de TotalEnergies.
- « Machine learning» ou apprentissage automatique pour optimiser une tâche donnée ;
- « Computer vision » pour acquérir, traiter, analyser et comprendre des images numériques pour produire des informations ;
- « Natural language processing» pour analyser et comprendre des discours et générer du langage humain de manière naturelle, chatGPT par exemple ;
- Le « système expert » pour répondre à des questions et effectuer un raisonnement selon des règles préétablies par les programmeurs ;
- L’ « optimisation » pour analyser des systèmes de données à des fins prédictives ;
- L’ « IA générative » pour la création de données ou de contenus ressemblant à ceux créés par des êtres humains.
Quelles IA à TotalEnergies?
Le recours aux IA est vu depuis 2020 comme un axe stratégique majeur. Une entité dédiée au développement numérique, la « Digital Factory » a été spécialement créée pour déployer la technologie au sein du groupe. Les branches EP et GRP sont à ce jour les principales demandeuses de développement IA (60% des commandes), devant le RC (22%). Les aspects productifs représentent plus de la moitié des développements, notamment axés sur la performance industrielle, les prévisions de production et de demande, l’optimisation de la logistique et de la maintenance, et le HSE. Outre les fonctions métier, des interfaces d’IA génératives ont été déployées sur la bureautique (Copilot).
Quels impacts sur le travail?
Il ne faut pas se leurrer : l’introduction de l’IA dans l’entreprise est inéluctable. Les gains de productivité qu’elle présuppose est une sirène auxquelles les dirigeants ne peuvent résister. La numérisation et l’automatisation des tâches permettrait, selon les dires de la direction, de se concentrer sur celles « à plus haute valeur ajoutée ». Ce genre de discours a déjà été entendu, notamment lorsque de multiples pans de l’activité ont été confiés à la prestation de service. Avec comme conséquence une « rationalisation »
des emplois et une mutation du travail conservé en interne.
Quels risques liés à l’IA?
JDS experts a regroupé les transformations du travail en trois grandes catégories de risques :
- Ceux liés à l’insécurité de la situation de travail, aux transferts de charge de travail ou aux dysfonctionnements organisationnels et à la perte de qualité de travail ;
- Ceux liés à la transformation et à la perte des savoir-faire, à la modification des compétences nécessaires à un poste donné, à l’accroissement de la complexité du travail, à l’accroissement de la charge mentale et à la diminution des temps de repos, et à l’affaiblissement de la reconnaissance de la qualité du travail produit par le salarié ;
- Ceux liés à la réduction de l’autonomie, à la perte de sens au travail, à l’accroissement des biais de traitement des données et à la pression sur les droits sociaux et les libertés individuelles.
On le voit, l’arrivée de l’IA dans le monde de l’entreprise, et plus largement dans l’espace public, soulève de nombreuses questions du fait des potentialités et de la puissance de ces outils.
Il apparaît indispensable de maîtriser les risques et cadrer l’éthique IA de l’entreprise.
Gare à l’IA dégénérative !
Quel cadre légal pour l’IA?
Le 13 mars 2024, le parlement européen a adopté l’IA Act, une forme de régulation commune en Europe pour définir et encadrer le développement des technologies à base d’IA. Elle définit un classement des systèmes en fonction de niveaux de risques évalués.
- Sont décrites « inacceptables » les technologies IA considérées comme une menace sur les droits fondamentaux, la sécurité ou les libertés individuelles ;
- Sont jugées « à haut risque » celles qui peuvent avoir un impact significatif sur les droits fondamentaux, comme celles qui pourraient être utilisées dans le recrutement par exemple ;
- Celles qui présentent un « risque spécifique » et qui nécessitent de la transparence pour informer les individus qu’ils interagissent avec une IA, comme les services clientèle ;
- Celles pour lequel le risque est considéré comme minimal et ne sont soumises à aucune exigence particulière. Entre dans ce cas jeux vidéo, publicités, optimisation financière (!), gestion bancaire (!) …
On peut être surpris de certains des items inclus dans cette dernière catégorie. Quoi qu’il en soit l’IA Act est entré en vigueur le 1er août 2024 avec une interdiction des « risques inacceptables » effective au 2 février dernier. Les IA à « haut risque » bénéficient d’un délai supplémentaire au 2 août 2026. TotalEnergies aurait démarré sa mise en conformité technique sur les différentes formes de risque, sous réserve concernant les IA à « hauts risques ».
Quelle gouvernance interne pour l’IA?
Il n’y a pas de « gouvernance IA » à proprement parler. Seul existe un comité de pilotage de l’IA générative. Des « Digital Technical Officers » jouent les chefs de gare pour aiguiller les demandes vers la « digital factory » et OneTech. Une instance de coordination serait envisagée.
Suivant le rapport d’expertise, une gouvernance globale intégrant politique éthique et cadre de gestion complet apparaît plus que souhaitable, d’autant plus que de nombreux chercheurs du secteur appellent à la prudence. Ce besoin inclut aussi la représentation sociale, nécessaire à la prévention de toute dérive impactant les salariés.
DIGITAL FACTORY : CHERCHEZ L’ERREUR
Dépositaire de l’innovation digitale, la Digital Factory est placée sous la responsabilité de Namita Shah, directrice de OneTech, bien que n’étant pas intégré à OneTech. Incohérent lorsqu’on sait que les salariés de l’entité OT/R&D/POW/NUM/DS, basée à Saclay, travaillent également sur les sujets IA (et donc en relation avec Digital Factory).
Bien pratique lorsqu’il s’agit d’éviter que les activités de la Digital Factory entrent dans le périmètre de droit de regard des élus du personnel de l’UES AGSH.
Pour la CGT, la Digital Factory doit être intégrée à OneTech et ces incohérences corrigées, notamment en regard des enjeux éthiques et sociaux que posent la mise en œuvre de la technologie des IA.
Pour plus d’éclairage sur le sujet, vous pouvez consulter le dossier en ligne de l’UGICT-CGT : https://ugictcgt.fr/themes/intelligence-artificielle/
Le tract en version pdf : 25.005-CSEC info IA