IA un problème ! Synthèse

Vous souhaitez vous familiariser avec la cartographie des impacts de l'intelligence artificielle générative ?

Voici une synthèse de la conférence « IA un problème ! »  qui s'est tenue lors de la Journée de l'écoconception numérique organisée par les Designers Éthiques (lien externe) le 6 février 2025.

Intervenant·es : Anne Faubry (lien externe), Anaëlle Beignon (lien externe) et Raphaël Yharrassarry (lien externe)

Introduction

Le sujet des impacts sociaux de l'IA n'est pas encore suffisamment traité. Afin d'approfondir cette question, trois grandes problématiques ont été identifiées :

  • Pourquoi l'usage de l'IA devrait-il rester exceptionnel ?
  • Quel est le lien entre IA et Design : comment l'IA influence le Design et vice-versa ?
  • En quoi peut-on encore faire un choix démocratique technique vis-à-vis de cette technologie ?

IA & impacts

Impacts sociaux

    Sur le plan économique :

    • destruction d'emplois (perte estimée de 300 millions d'emplois),
    • opacité sur les modèles économiques dont on est de plus en plus dépendants,
    • existence d'une bulle spéculative pointée par les grands médias américains.

    Sur le plan social :

    • exploitation de données personnelles,
    • création d'emplois précaires (au regard de la destruction d'emplois),
    • exploitation humaine dans une logique néocolonialiste (entrainement des IA),
    • renforcement des discriminations.

    Sur le plan politique :

    • menace de la souveraineté des États et création de monopoles,
    • conflits d'usage dans l'utilisation de ressources locales,
    • durcissement de l'état de surveillance,
    • dépendance accrue à des solutions privées.

    Sur le plan de l'information : 

    • hallucinations (inventions et erreurs),
    • renforcement des stéréotypes,
    • facilitation des fake news (avec les deepfake),
    • uniformisation et homogénéisation vers la médiocrité,
    • menace des médias existants.

    Sur le plan individuel :

    • essor des deepfake,
    • manipulation pouvant mener jusqu'au suicide,
    • logique d'intersectionnalité lorsque toutes ces problématiques se recoupent.

            Impacts environnementaux

            Aujourd'hui, on parle principalement des impacts environnementaux de l'IA. De ce point de vue, l'enjeu est essentiellement son hypercroissance.

              En investissement :

              • 20 milliards d'euros prévus en Union européenne,
              • 500 milliards de dollars annoncés par le président américain.

              En puissance :

              • la capacité de stockage requise va être multipliée par 3 d'ici à 6 ans (pour les géants du Cloud),
              • puissance multipliée par 275 tous les 2 ans pour Nvidia (contre une multiplication par 8 tous les 10 ans).

              En matériel :

              • 80 % des data centers seraient inadaptés et inadaptables aux besoins de l'IA (il faut souvent les raser et les reconstruire pour avoir les approvisionnements nécessaires),
              • on comptabilise + 25 % de constructions de centres de données au 1ᵉʳ semestre 2023 en Amérique du Nord.

              En énergie :

              • la consommation des data centers devrait doubler d'ici 2027 (soit la consommation énergétique annuelle de l'Argentine).

              Cette hypercroissance de l'IA génère inévitablement une hypercroissance de ses impacts.

              En eau :

              • augmentation de 34 % de la consommation d'eau de Google et Microsoft en 2022,
              • on évalue également à la moitié de la consommation d'eau du Royaume-Uni celle de l'IA en 2027.

              En CO₂ :

              • les émissions de CO₂ des data centers des GAFAM sont 7 fois plus élevées que ce qui avait été officiellement annoncé,
              • en 2023, + 13 % des émissions de CO₂ étaient dues à l'IA pour Google contre + 20 % pour Microsoft.

              En déchets :

              • d'ici 2030, on prévoit 1 à 5 millions de tonnes de déchets liés à l'IA.

                    Risques

                    Tout cela pose de sérieux risques sur l'habitabilité du monde actuel.

                      En investissement :

                      • sur l'IA au détriment des investissements sur l'environnement.

                      En énergie :

                      • construction de nouvelles centrales nucléaires (compter 8 ans avant qu'elles puissent fonctionner).
                      • pendant ces constructions, utilisation d'énergies fossiles en grande quantité.

                      En eau :

                      • accentuation des sécheresses (risques de feux, comme en Californie),
                      • altération des cours d'eau (pollution, réchauffement, comme à Marseille),
                      • nombreux conflits d'usage à travers le monde (ex : Mexique, Londres).

                      En CO₂ :

                      • triplement de l'impact carbone du secteur numérique d'ici 2050.

                      En déchets :

                      • augmentation de 80 % ces 10 dernières années.
                      • peu de perspectives de recyclage de ces matériels du fait de la concentration très faible de métaux. Plus le coût de l'énergie augmente, moins le recyclage est rentable.

                      Pour finir, il existe un risque majeur sur le plan environnemental : l'effet rebond. Dès que l'on a un gain en performance on a tendance à consommer davantage, ce qui vient généralement effacer le bénéfice généré.  

                      Exemples d'effets rebond avec augmentation de la consommation :

                      • des data centers, du fait d'une efficacité accrue,
                      • de bande passante, liée au passage à l'ADSL ou à la 4G, etc.

                          Bilan

                          Comment peut-on donc espérer atteindre 2 t de CO₂ par habitant en 2050 si le numérique à lui seul atteint 1,5 t de CO₂ par habitant ? Cela dans un contexte d'accélération du dépassement des limites planétaires particulièrement préoccupant. 

                          Analyser les externalités de certains cas d'usage pertinents et parvenir à un bilan positif — et à une IA dite « acceptable » ou « responsable » — est illusoire, car il y aura toujours un arbitrage éthique à faire entre différents indicateurs. Par exemple :

                          • Vaut-il mieux utiliser de l'eau ou émettre du CO₂ ?
                          • Faut-il avant tout prendre en compte les enjeux sociaux ou bien les enjeux environnementaux ? 

                          L'IA doit en effet s'inclure dans des réflexions globales sur le numérique.

                            Au final, il revient de systématiquement questionner la finalité de l'IA :

                            • Peut-on faire sans numérique ? N'y a-t-il pas une alternative possible ?
                            • Peut-on faire sans IA ? N'y a-t-il pas une alternative plus sobre ?  
                            • Quelle est la finalité de cette IA ? Répond-elle à un objectif de développement durable ou à 1 des 9 limites planétaires (critère 1.1 du RGESN (lien externe)) ?
                            • Et seulement dans un dernier temps : Comment faire une IA la plus juste possible ?

                              IA & Design

                              Interfaces

                              L'IA a le 1ᵉʳ rôle dans nos interfaces via : 

                              • une mise en avant spatiale et graphique (accessible facilement),
                              • des sollicitations insistantes et dark patterns (sans possibilité de refuser),
                              • l'activation par défaut et entraînement sur nos données (pour générer des suggestions). 

                              L'IA est présentée comme « magique », de par : 

                              • la présence d'étoiles symbolisant le merveilleux (connotation positive),
                              • l'utilisation de la couleur mauve (rapport immatériel à l'outil).

                              L'IA devient un « assistant », et apparaît comme :

                              • une métaphore de l'activité humaine (peut faire aussi bien que nous),
                              • une subordonnée servile (prête à nous aider, polie).

                              Jusqu'à nous en défaire, grâce aux « boîtes à outils » permettant prétendument l'acquisition de compétences et l'employabilité sur un marché en tension.

                                Bilan

                                On assiste à un véritable forcing de l'IA sur les interfaces.

                                L'enjeu est de nous faire adopter ces technologies et de nous inciter à aller vers des modèles d'utilisation payante (capture d'utilisateur·rices).

                                Pour cela, d'importants moyens sont déployés, notamment via le design d'interface.

                                Cas d'usage 1 - Médecine

                                En consultant des études réalisées sur la mise en œuvre de l'intelligence artificielle sur le terrain (loin des fantasmes), on constate d'importants impacts psycho-sociaux.

                                D'après une étude de Tamari Gamkrelidze1 menée dans un cabinet de radiologie, deux applications de l'IA étaient faites : 

                                • la reconnaissance vocale (transcription des comptes rendus)
                                • et la détection de fractures sur les radios. 

                                Radiologie : reconnaissance vocale

                                Une 1ère observation :

                                • avant : les secrétaires retranscrivaient les compte-rendus oraux des médecins,
                                • désormais : les radiologues doivent vérifier l'exactitude de la retranscription automatisée.

                                Impacts positifs : 

                                • gain de temps (production des comptes rendus),
                                • volonté de création d'un contenu intelligible et pertinent.

                                Risques identifiés : 

                                • disparition d'une partie de l'activité des secrétaires,
                                • perte de sécurité des radiologues sans ce travail de relecture,
                                • augmentation de la charge de travail des radiologues,
                                • dégradation de la qualité orthographique.

                                Radiologie : détection des fractures

                                Impacts positifs : 

                                • permet de sécuriser un diagnostic (si utilisé comme 2nd lecteur),
                                • soutien aux internes en radiologie (amélioration de l'interprétation),
                                • gain de temps mitigé.

                                Risques identifiés : 

                                • frein à l'apprentissage et à l'acquisition de compétences,
                                • perte de temps,
                                • sur-confiance (diagnostics erronés ou incomplets). 

                                Bilan

                                L'IA est ici utilisée pour remplacer des tâches fastidieuses mais relativement vérifiables. Les pratiques de remplacement sont proches de celles amenées dans les années 80 par la robotisation :

                                • tâches fastidieuses,
                                • tâches dangereuses,
                                • tâches soumises à des produits chimiques.

                                Cas d'usage 2 - Services publics

                                Le consentement via les interfaces a été abordé plus haut. Nous nous intéresserons ici au consentement par le travail. Imaginez donc : 

                                • que votre backlog2 soit organisé par une IA,
                                • que vos tâches vous soient attribuées par une IA,
                                • que le temps de travail, la complexité soient évalués par une IA.

                                  2 Liste de fonctionnalités prioritaires destinée à l'équipe de développement.

                                  Consentement : mobilité enseignante

                                  « Albert » est une IA développée par les services publics3 qui est utilisée dans l'Académie de Lyon pour :

                                  • piloter la phase de mobilité des enseignants,
                                  • et éviter les contentieux

                                  On imagine alors facilement :

                                  • le mécontentement des enseignants lorsqu'ils seront mutés à l'autre bout de leur Académie,
                                  • la réponse apportée par leur hiérarchie : « C'est pas nous, c'est l'IA ! ».

                                  Finalement, que préférons-nous :

                                  • un travail organisé avec notre équipe ?
                                  • ou un travail organisé par une intelligence artificielle ?

                                  Quand c'est le choix de la productivité qui est fait, on peut légitimement douter du maintien des équipes. Les traducteur·rices sont par exemple aujourd'hui largement remplacé·es par les IA.

                                    Consentement : détection des piscines

                                    « Foncier innovant » est le dispositif mis en place par l'IGN4 et les impôts afin de détecter les piscines, et ainsi pouvoir taxer les personnes ne les ayant pas déclarées5

                                    Le fait est que le dispositif est dysfonctionnel. Il aura par ailleurs eu pour conséquence :

                                    • la suppression de 300 équivalents temps plein,
                                    • la sédentarité des fonctionnaires toujours en poste (avant se déplaçaient sur le terrain).

                                    Tout en ayant coûté plusieurs dizaines de milliers d'euros.

                                      À cela s'ajoute un impact psycho-social :

                                      • avant : activité sociale,
                                      • désormais : travail de bureau

                                          4 Institut national de l'information géographique et forestière

                                          5 Quand l'intelligence artificielle remplace les agents des impôts (lien externe), basta!

                                          Bilan

                                          Si l'on s'intéresse aux métiers du numérique, on peut se poser la question de savoir ce que l'on préfère :

                                          • produire un code propre, de qualité, documenté et maintenable ?
                                          • ou corriger un code de mauvaise qualité, produit par une IA et dont nous ne savons pas comment il fonctionne ?

                                          En sachant qu'en développement web, le gain de productivité est d'environ 10%.

                                            Expertise vs médiocrité

                                            Expertise

                                            Qu'est-ce qui fait la différence entre un·e novice et un·e expert·e ? Comment gagne-t-on de l'expertise au cours de notre vie ou de notre travail ?

                                            Un·e expert·e se distingue d'un·e novice sur :

                                            • les métaconnaissances (connaissances sur les connaissances)

                                            L'intelligence artificielle, elle, n'a pas de connaissances.

                                            Ce qui nous distingue donc de l'IA, c'est notre expertise. Nous pouvons l'acquérir grâce à : 

                                            • l'apprentissage
                                            • l'expérience (imitation, essai, erreur et réussite, itération),
                                            • la collaboration avec ses pairs (regarder, comprendre, échanger, critiquer et être critiqué·e),
                                            • l'enseignement

                                            Finalement, que préférons-nous :

                                            • partager nos connaissances entre humains ?
                                            • ou éduquer les intelligences artificielles ?

                                                Médiocrité

                                                Derrière les IA, il y a un réseau de neurones. 

                                                Des données sont rentrées dans le neurone, puis celui-ci pondère ces données afin d'offrir la sortie la plus probable. Des milliards de neurones vont ainsi aller vers le plus probable. C'est la base de tous les modèles d'intelligence artificielle. 

                                                Si l'on souhaite donc rester dans la médiane (ou médiocrité), l'IA va bien fonctionner. Elle a par ailleurs une forte tendance à diffuser des stéréotypes et des biais. Ce qui va renforcer ce caractère médiocre. 

                                                En somme : l'IA ne va pas aider à générer des idées originales. Elle va juste inciter à générer des idées médiocres.

                                                Conclusion

                                                Compte tenu de tout ce qui a été mis en avant précédemment, il est donc fortement conseillé de limiter les usages de l'IA :

                                                • aux tâches chronophages (transcription, sous-titrage, classification de contenus),
                                                • basés sur de petits modèles spécialisés (détection, optimisation) en appui à une expertise humaine,
                                                • aux résultats vérifiables,
                                                • qui tourne sur votre ordinateur (et pas dans le cloud). 

                                                Pour un futur désirable, ne pas oublier que :

                                                • le risque psycho-social est réel,
                                                • les relations entre les humains doivent rester centrales.

                                                Pour un choix démocratique autour de l'IA, nous pouvons :

                                                  Pour aller plus loin

                                                  Licence libre - Attribution à l’entité créatrice - Pas d’utilisation commerciale - Partage dans les mêmes conditions