Augmenter la taille des polices
Diminuer la taille des polices
Numérique Responsable

IA éthique & Numérique Responsable : quels enjeux pour demain ?

26 février 2024

L’intelligence artificielle sera un sujet majeur de l’année 2024. Les usages se multiplient et génèrent un impact environnemental alarmant. Ce constat, s’accompagne d’interrogations légitimes sur l’aspect éthique de l’IA, en lien avec le Numérique Responsable. Un cadre normatif et législatif se met progressivement en place à l’échelle nationale et internationale.

Quels sont les enjeux d’une IA éthique ? Comment le numérique responsable intègre-t-il l’intelligence artificielle dans le spectre de ses actions ? Si l’IA présente aujourd’hui des capacités indéniables, son utilisation interroge la notion de confiance et pose la question des usages. À quand une IA responsable comme composante indispensable de la démarche numérique responsable ?

Intelligence artificielle : une empreinte écologique alarmante

Afin d’établir l’empreinte environnementale de l’IA, il y a différentes phases à prendre en compte. Outre les phases d’entraînement de l’IA, il faut également considérer tous les facteurs, dont la fabrication, la maintenance et le recyclage des plates-formes de calcul & de stockage dans la mesure de l’empreinte. Sans oublier la phase d’exécution et l’usage même de cette IA.

La fabrication des outils de l’IA mobilise de nombreuses ressources et consomment toujours plus d’énergie, notamment via les datacenters. Par ailleurs, ils sont alimentés majoritairement par des énergies fossiles et sont très gourmands en eau douce ! A ce stade peu de données permettent d’établir l’empreinte globale de l’IA au niveau mondial.

L’impact environnemental de l’IA générative en quelques chiffres

Tout le monde n’est pas d’accord sur les chiffres affichés concernant l’intelligence artificielle ! Selon des chercheurs de Google et de l’Université de Berkeley, le modèle d’IA d’OpenAI, GPT-3, aurait nécessité à lui seul quelques 1287 GWh pour boucler son apprentissage. Soit une consommation comparable à celle de 120 foyers américains sur une année et l’équivalent de 502 tonnes d’émissions de carbone. 

De son côté, l’université de Californie, estime que l’entraînement seul de l’IA pour GPT-3 a consommé 1287 MWh émettant 552 tonnes de CO2e, soit plus de 205 vols aller-retour entre Paris et New-York

Enfin, concernant l’exécution de ChatGPT, l’étude du média Medium (basée sur des hypothèses) considère que l’empreinte carbone journalière de ChatGPT est de 23,04 kgCO2e. L’équivalent de 8,4 tCO2e/an, soit 12 années de consommation de chauffage électrique pour une maison en France de 110m², selon les données de l’ADEME. 

La peur, la confiance et moi. Et l’IA dans tout ça ? Visionnez le replay de la table-ronde. Avec l’intervention de Fabienne Amadori, Co-présidente du Groupe Isia, aux côtés de Laura André-Boyet, formatrice d’astronautes à l’Agence spatiale européenne, Anna Choury, mathématicienne, experte IA & société et Anne Laurent, professeure en informatique et vice-présidente de l’Université de Montpellier.

Vers une intelligence artificielle responsable ?

Quelles définitions de l’intelligence artificielle éthique & responsable ?

Aujourd’hui les termes employés pour parler d’IA foisonnent avec des perspectives et compréhensions différentes : LLM (Large language model), CHATBOT, RAG (génération augmentée de récupération), machine learning, NLP (Natural Language Processing), IA générative, IA-ACT, … .

Beaucoup d’acteurs publics et privés s’accordent pour dire que la révolution numérique passe aujourd’hui par le déploiement de systèmes d’intelligence artificielle. Forts de ce constat, les 193 Etats membres de l’UNESCO ont adopté en Novembre 2021 la Recommandation sur l’éthique de l’intelligence artificielle, 1er instrument normatif mondial sur ce sujet. Elle place la protection des droits de l’homme et de la dignité comme éléments essentiels de la Recommandation basée sur la consolidation de principes fondamentaux tels que l’équité et la transparence en gardant toujours en tête l’importance de la responsabilité humaine dans le contrôle des systèmes d’IA.

En résumé, une intelligence artificielle de confiance doit combiner des caractéristiques telles que la transparence, l’éthique, la sécurité, la responsabilité et l’interprétabilité. Ces prérequis semblent indispensables pour créer des systèmes fiables, respectueux des normes éthiques et susceptibles d’inspirer la confiance des utilisateurs et du public.

Enjeux & questions éthiques soulevées par l’IA

L’impact social et économique des systèmes d’IA générative promet d’être majeur, compte tenu de leurs nombreux usages potentiels. Les enjeux sont forts notamment pour l’environnement (répondre à des enjeux de biodiversité ou de transition écologique en exploitant des corpus variés en botanique, zoologie, paléontologie, géographie ou encore en océanographie) ou pour la santé (par exemple la synthèse de médicaments via le repliement des protéines).

Cependant ces systèmes d’IA générative soulèvent de nombreuses questions d’ordre éthique, épistémologique, anthropologique, psychologique, économique, social, politique et culturel.

Concurrences entre IA et débats sur le volet juridique

Dans ses CGU (conditions générales d’utilisation) Open AI, la société qui a développé CHAT GPT indique que l’utilisateur « s’engage à ne pas entraîner d’IA concurrente à Open AI avec le contenu d’Open AI ». La guerre entre les différents outils d’IA fait rage et des actions en justice s’engagent tout en mettant en avant un point central : l’exploitation gratuite des données collectées sur le web pour entrainer ces intelligences artificielles !

Le développement de l’IA générative et des larges modèles de langue (LLM) soulève également des questions majeures :

Premières pistes pour une IA plus responsable

Le succès phénoménal de ChatGPT suite à sa mise en service en novembre 2022 a incité les entreprises et les administrations à se doter de chatbots internes aux performances équivalentes et adaptés à leurs données internes. De plus, pour une partie d’entre elles, l’utilisation de systèmes hors de leur cloud n’est pas envisageable pour des raisons de sécurité et de propriété des données.

L’approche RAG, (Retrieval Augmented Generation ou Génération Augmentée par la Recherche), s’est développée pour répondre à ces contraintes. Le RAG permet de proposer des chatbots qui utilisent les données internes de la structure tout en interagissant à la manière d’un chatbot. *

De nouvelles questions émergent au fur et à mesure de nouveaux usages autour de ces technologies et il n’est pas possible à ce jour de prévoir tous les effets que celles-ci vont produire sur l’individu et la société. Dans cet avis, le CNPEN (Comité National Pilote d’Ethique du Numérique) privilégie l’examen des questions éthiques qui lui semblent les plus importantes au vu de l’expérience actuelle avec les systèmes d’IA générative. **

AI for for Green & Green AI

Cette étude qualitative diffusée en avril 2024, porte sur l’IA au service de la transition écologique et les IA frugrales. Réalisée par numeum et l’Institut G9+, avec le soutien du Hub France IA, du Cigref et de Planet Tech’Care, elle est basée sur 72 interviews de professionnels issus de 45 entreprises différentes.

Un rapport structuré en 6 thèmes : IA générative et durabilité, Stratégies innovantes de Green AI, AI for Green, La donnée au cœur de l’IA, Vers une IA éthique et Cadre réglementaire. Le tout, illustré de cas concrets avec un état de lieux du niveau de maturité des entreprises en France. Des recommandations sont partagées pour se saisir rapidement des enjeux autour de l’IA .

Vers un cadre normatif et législatif autour de l’IA

Les enjeux éthiques, sociétaux et environnementaux qui gravitent autour de de l’intelligence artificielle sont forts. En France, des organisations comme l’Institut du Numérique Responsable s’emparent du sujet pour le faire avancer. Depuis Janvier 2021, un groupe de travail dédié à l’intelligence artificielle responsable, travaille via une 50aine de contributeurs sur les questions d’environnement & d’éthique.

Par ailleurs, le 15 janvier 2024 à l’initiative du Ministère de la Transition Ecologique et de l’AFNOR, un groupe de travail est né pour encadrer l’intelligence artificielle de manière concrète. Ainsi, lAFNOR spec 2314, souhaite donner aux acteurs français un 1er cadre normatif et les outiller via un référentiel volontaire opérationnel. L’idée étant d’élaborer un premier cadre de référence actionnable sur l’Intelligence Artificielle frugale d’y voir plus clair sur l’impact environnemental des projets d’intelligence artificielle.

Enfin, le 2 février 2024 les 27 états membres de l’Union Européenne ont approuvé lIA Act; une proposition de loi européenne sur l’intelligence artificielle. Il s’agit de la première réglementation à l’échelle mondiale qui devrait entrer en vigueur en 2025 une fois ratifiée par le parlement européen. L’objectif majeur du parlement étant de veiller à ce que les systèmes d’IA utilisés dans l’UE soient éthiques et respectueux de l’environnement.

IA responsable et éthique : vision du Groupe Isia

Nos convictions et notre vision sont forgées par notre implication de longue date au sein de l’écosystème numérique responsable.

Implication dans des groupes de travail nationaux & régionaux

L’avènement de l’IA nous conduit naturellement à adresser ce sujet pour le bénéfice de nos clients en étendant notre réseau de contributions actives :

Faire co-exister Numérique Responsable & IA

L’intelligence artificielle est souvent une approche demandée sans que tous les enjeux ne soient véritablement bien perçus ni adressés. Nous préférons parler de segments de la chaîne de valeur où l’intelligence artificielle peut avoir une plus-value intéressante.

Pour aller chercher cette valeur nous reprenons les techniques de l’UX (User eXperience) pour faire émerger les besoins réels d’IA avec l’intelligence eXperience. Compte tenu de l’impact sur l’environnement des outils d’intelligence artificielle, l’utilisation de l’IA est mise en perspective avec les besoins. On en revient ainsi aux principes de base du numérique responsable :  le fait de se questionner sur l’utilité, tout au long du cycle de vie de l’IA utilisée.

Cette nouvelle expérience va s’appliquer sur les processus de l’organisation, sur les traitements, sur les données par l’intégration fiable et respectueuse des principes Numérique Responsable dans un existant.

Quand on parle d’IA verte, on parlera aussi de réfléchir aux compromis que l’on peut faire et du meilleur rapport entre performance & efficacité !

>> Retrouvez notre article Numérique responsable : 8 erreurs à éviter

Acronymes et références

Sources (empreinte écologique & impacts de l’IA) :

Liens utiles :

CETTE ARTICLE VOUS A PLU ?

Partagez le sur les réseaux sociaux.

🡰 Retour aux actualités du site