📣 Grand enquête en cours :  Quels sont les besoins et les enjeux de votre entreprise ? ➡️ Donnez votre avis (< 5 minutes) 

RSE et Intelligence Artificielle : comment se positionner ?

Temps de lecture : 6 minutes

RSE et Intelligence Artificielle : comment se positionner ?

Vous vous baladez sur LinkedIn et vous avez l’impression qu’on n’y parle plus que d’intelligence artificielle ?

Vous voyez des consultants, des formateurs, des marketeurs en faire des caisses sur les “nouvelles opportunités” ?

Mais au fond, de quoi parle-t-on vraiment ?

Souvent, d’IA pour générer des visuels stylés, des textes à publier plus vite ou encore des vidéos promotionnelles ultra-réalistes.

Certains y voient une révolution. D’autres (comme l’auteur de ces lignes) sont beaucoup plus nuancés.

Et vous ? Vous vous êtes posé la question du pourquoi ? Pourquoi développe-t-on cette technologie ? Au service de quoi ? De qui ? Avec quelles limites ?

En gros : de l’IA pour faire plus de com’, plus de contenu, plus vite...

Mais est-ce que ça tient la route ? Est-ce qu’on se pose les bonnes questions sur une technologie qui, dans les faits, consomme énormément de ressources, repose sur un travail invisible mal payé, et entretient des inégalités bien réelles ?

Quand on voit que le marketing de contenus crée déjà une quantité industrielle de pages, vidéos, posts LinkedIn et autres infographies, avec l’IA, on va se retrouver avec une explosion de tout ceci.

Mais l’outil reste intéressant, dans certains contextes précis et dans certaines limites, que nous vous proposons de découvrir ici.

L’IA, c’est du concret (et ça a un coût)

Quand on parle d’intelligence artificielle (IA), on pense souvent à quelque chose d’immatériel, de presque magique.

Comme un nuage (cloud !) de données, des algorithmes super efficaces, des assistants virtuels qui répondent en temps réel etc.

Bref, l’IA, pour beaucoup de gens, c’est forcément fluide, propre, presque invisible. Un peu comme l’Internet !

Mais la réalité, c’est que l’IA repose sur une infrastructure industrielle très lourde. Elle est polluante et profondément inégalitaire.

Derrière chaque outil “intelligent”, il y a :

  • des centres de données gigantesques qui tournent jour et nuit, refroidis à grand renfort d’eau ou de climatiseurs industriels ;

  • des milliers, voire millions, de serveurs qui consomment une énergie colossale (et pas toujours renouvelable) ;

  • des matériaux rares extraits à l’autre bout du monde, souvent dans des conditions écologiques et sociales catastrophiques ;

  • et des millions d’heures de “travail invisible”, réalisées par des humains sous-payés pour annoter des images, modérer des contenus violents ou affiner les résultats des IA.

Selon une étude de l’université du Massachusetts, entraîner un seul modèle de traitement du langage peut générer jusqu’à 284 tonnes de CO₂ – l’équivalent de cinq allers-retours Paris-New York… par passager.
Et ce n’est que la partie émergée de l’iceberg !

Alors non, l’IA n’est pas “propre” !

Elle n’est pas “dématérialisée”.

Elle n’est pas “gratuite”.

Elle mobilise des ressources limitées, souvent extraites dans des zones de tension, et génère des impacts environnementaux bien réels.

Et surtout : ce coût n’est presque jamais intégré dans le débat public. Ou alors il est minimisé.

Parce qu’il est lointain, fragmenté, éclaté.

Parce qu’il dérange la belle narration d’un progrès fluide et universel.

Et aussi parce qu’il interroge nos choix de société : a-t-on vraiment besoin de ces modèles surpuissants qui résument des PowerPoints ou créent des vidéos de licornes dans l’espace ?

Mais au fait… pourquoi fait-on tout ça ?

L’IA est souvent présentée comme une réponse idéale à nos problèmes.

A lire aussi :  Les 9 limites planétaires : ce que votre entreprise doit savoir pour éviter la casse

Mais une réponse à quoi, exactement, à quel problème ?

Est-ce qu’on l’a développée pour résoudre la crise climatique ?

Pour améliorer la santé publique ?

Pour renforcer la démocratie ?

Pas vraiment…

Les usages les plus massifs de l’IA aujourd’hui ?

  • Générer des contenus à la chaîne.
  • Capter l’attention des internautes plus longtemps.
  • Optimiser les flux logistiques, la publicité, les achats en ligne, et tout le système économique qu’il faudrait au contraire chercher à adoucir.
  • Et bien sûr, automatiser le travail — souvent sans se soucier des conséquences humaines.

En clair : on a mis des moyens colossaux au service d’objectifs économiques court-termistes.

Plus de clics. Plus de temps d’écran. Plus de productivité. Plus de data.
C’est ça, le vrai moteur.

Et derrière les discours sur “l’innovation responsable” ou “l’IA au service du bien commun”, il y a surtout une course effrénée entre quelques géants du numérique pour prendre le contrôle de l’infrastructure cognitive du XXIe siècle.

Alors posons-nous une vraie question de fond : est-ce que cette technologie est orientée vers ce qui est nécessaire ?
Ou vers ce qui est rentable ?

Est-ce qu’on développe de nouveaux modèles parce que ça répond à un besoin humain profond ?
Ou simplement parce que les ingénieurs peuvent le faire, et que les investisseurs y voient un gisement de croissance ?

Le problème, c’est qu’on a perdu le nord !

Le philosophe français, aujourd’hui disparu, Bernard Stiegler parlait d’une technologie sans télos, c’est-à-dire sans finalité consciente.

Une machine qui s’auto-alimente, hors de tout projet politique, hors de toute boussole collective.

C’est vraiment la quintessence de l’IA : on se dit rapidement, mais franchement, à quoi cela sert ?

Et à force de ne plus se demander “pour quoi faire ?”, on finit par accepter l’idée que tout progrès est bon, du moment qu’il est nouveau.

Mais ce n’est pas une fatalité : on peut choisir. On peut ralentir. On peut même décider que certaines innovations… n’en sont pas.

Et si l’IA doit avoir un rôle dans la société, alors ce rôle doit être débattu, encadré et orienté vers nos vrais besoins.

Donc, ne pas être juste dicté par le marché.

Mettre des limites, ce n’est pas être technophobe. C’est être responsable.

Vous connaissez cette idée reçue : poser des limites, ce serait brider la liberté.

Mais allez élever un enfant sans aucun cadre, sans aucune règle, et vous verrez ce qui se passe. Ce n’est pas de la liberté, c’est de la confusion. Du stress. De l’insécurité.

Pourquoi ?
Parce que les limites et les contraintes structurent. Elles protègent. Elles aident à grandir.
Et c’est pareil avec les technologies.

C’est d’ailleurs le fond de la philosophie de Jean-Marc Jancovici. Il nous invite à choisir nos contraintes, librement, maintenant, plutôt que de les subir de force, de manière imprévue, plus tard.

L’intelligence artificielle, on en parle comme d’un outil neutre, mais en réalité elle est en pleine croissance. Elle explore, elle tâtonne, elle déborde.
Et pour qu’elle évolue de façon saine, il faut un cadre, une éducation collective.

Sans cela, ce sont les logiques les plus cyniques qui prennent le dessus : captation de données, usages opaques, efficacité sans éthique et les “abus” du quotidien (s’en servir comme d’un compagne de discussion toute la journée…).

A lire aussi :  Numérique responsable : comment former vos collaborateurs ?

Alors non, poser des limites à l’IA ce n’est pas être technophobe.
C’est faire preuve de maturité démocratique.
C’est refuser que la technique décide à notre place.

Déjà, des interdits clairs !

Certains usages devraient être tout simplement proscrits, sans débat.

La surveillance biométrique de masse ? Interdite.
La notation sociale automatisée ? Interdite.
L’automatisation du tri de CV sans transparence ni recours ? Interdite.

Mais parlons aussi de l’imitation de nos voix, comme cela a eu lieu aux Etats-Unis, où des millions de personnes ont reçu un appel de la part d’une personne politique connue (c’était en réalité une IA).

Ces décisions ne sont pas techniques. Elles sont politiques.
Et elles engagent notre conception de la liberté, de l’égalité et de la dignité.

Ensuite, des choix de sobriété

Faut-il vraiment des IA génératives ultra-puissantes pour créer des pubs, résumer des e-mails ou générer des avatars ?
Peut-on sérieusement parler de “transition écologique” tout en soutenant une explosion de la consommation énergétique numérique ?

D’ailleurs, la palme revient aux GAFAM, porteurs principaux de cette technologie, dont les émissions repartent à la hausse, à l’encontre de leurs engagements, à cause de l’IA.

Et si on se demandait ce qu’on peut faire avec moins ?

Cela suppose une réflexion sur la sobriété numérique, sur la pertinence des usages, sur les choix d’infrastructure, sur la répartition des ressources entre les besoins essentiels (santé, éducation, climat) et les gadgets conversationnels.

Enfin, une gouvernance collective

En novembre 2023, la France a organisé le premier sommet mondial pour une IA responsable, appelant à “aligner l’innovation technologique sur les valeurs humaines et universelles”.

C’est un début. Mais ce sommet n’aura de poids que s’il est suivi d’actes concrets :

  • des règles de transparence sur les modèles,

  • des obligations d’impact environnemental,

  • des clauses sociales dans les chaînes de valeur,

  • et surtout, une vraie démocratie technique, où les choix en matière d’IA ne sont pas faits uniquement dans les labos ou les conseils d’administration.

Parce que ce qui est en jeu, ce n’est pas juste une technologie de plus.
C’est notre capacité collective à choisir le monde que nous voulons habiter.

Conclusion : agir maintenant, pour choisir notre futur

Alors, que faire face à cette révolution technologique qui déferle ?
Faut-il rester passif ou continuer à rêver que le marché régulera tout ?
La réalité est claire : nous avons tous un rôle à jouer, dès aujourd’hui.

Voici trois clés pour agir concrètement :

  1. Exigez la transparence.
    Demandez que les entreprises rendent publiques les données d’impact environnemental et social de leurs IA. Sans transparence, impossible d’agir.

  2. Pratiquez la sobriété numérique.
    Avant d’utiliser ou promouvoir un outil IA, posez-vous la question : est-ce vraiment utile ? Peut-on faire simple, léger, efficace, sans gaspiller les ressources ?

  3. Engagez-vous dans le débat démocratique.
    Suivez les discussions publiques, participez aux consultations citoyennes, interpellez vos élus. La gouvernance de l’IA ne doit pas être laissée aux seuls experts ou aux multinationales.

Ensemble, en posant des limites et en orientant l’innovation, nous pouvons faire en sorte que l’intelligence artificielle serve vraiment l’humain et la planète — et pas l’inverse.

Ce combat est une question de responsabilité collective.
Et le moment d’agir, c’est maintenant.