RSE et IA : l’intelligence artificielle peut-elle réellement accélérer la transition écologique ? – Partie 2
Dans la première partie, j’avais envie d’y croire. L’IA, moteur de la transition écologique, outil de prédiction, d’optimisation, d’efficacité… tout semblait concourir à faire de cette technologie un allié précieux pour la planète. Des villes plus vertes, des champs mieux irrigués, des écosystèmes protégés : sur le papier, la promesse avait de quoi séduire même les plus sceptiques.
Mais comme souvent, la médaille a son revers. Derrière le papier peint vert se cache une réalité plus contrastée : celle de serveurs qui chauffent, de modèles qui engloutissent énergie et eau douce, et d’un enthousiasme collectif parfois aveugle face aux impacts réels du numérique.
Si l’on s’interroge sur la “soutenabilité” on peut se demander si la véritable transition ne consistait pas seulement à créer des outils plus performants, mais à apprendre à mieux les utiliser ?
II – La nécessité d’avoir un usage raisonnable et raisonné de l’IA
Dans Les 2 sources de la morale et de la religion, Bergson écrivait « Si nos organes sont des instruments naturels, nos instruments sont par là même des organes artificiels. L’outil de l’ouvrier continue son bras ; l’outillage de l’humanité est donc un prolongement de son corps. »
L’intelligence artificielle n’échappe pas à cette logique : elle prolonge nos capacités cognitives comme la machine prolongea jadis notre force musculaire. Mais encore faut-il apprendre à maîtriser ce nouveau bras mécanique de la pensée, avant qu’il ne nous échappe.
a) Le paradoxe de la performance écologique
Derrière le vernis vert du AI for Good se cache une équation énergétique et hydrique dérangeante.
En 2019, une étude du Massachusetts Institute of Technology (MIT) (Energy and Policy Considerations for Deep Learning in NLP, 2019) révélait que l’entraînement d’un modèle de langage de grande ampleur pouvait générer jusqu’à 284 tonnes de CO₂, soit autant que cinq voitures sur toute leur durée de vie.
Depuis, la taille des modèles a explosé, et leur appétit énergétique avec. Une recherche récente de l’University of California, Riverside, menée par Pengfei Li et al. (Making AI Less Thirsty: Uncovering and Addressing the Secret Water Footprint of AI Models, 2023), a montré que l’entraînement d’un grand modèle de langage comme GPT-3 aurait nécessité près de 700 000 litres d’eau douce, utilisés pour refroidir les serveurs et produire l’électricité nécessaire. Une seule interaction avec ChatGPT consommerait jusqu’à 500 ml d’eau, selon les conditions de refroidissement.
Cette empreinte hydrique, longtemps passée sous silence, illustre une contradiction majeure : les outils conçus pour optimiser nos usages risquent eux-mêmes d’épuiser des ressources vitales.
Peut-on alors concevoir une intelligence artificielle durable ?
L’Agence internationale de l’énergie (AIE) évoque dans son rapport Electricity 2024 plusieurs leviers possibles :
- mutualiser les modèles pour éviter les entraînements redondants ;
- recourir à des architectures sobres ;
- relocaliser les serveurs dans des régions alimentées par des énergies renouvelables ;
- et instaurer une transparence énergétique obligatoire pour les acteurs du numérique.
Autrement dit, si l’IA veut « sauver la planète », elle doit d’abord commencer par ne pas la surchauffer.
b) De l’optimisation à la délibération : l’importance d’impliquer les citoyens
Mais la sobriété technique ne suffit pas : l’enjeu est aussi éthique et politique.
Comme le rappelle Evgeny Morozov dans To Save Everything, Click Here (2013), le « solutionnisme technologique » consiste à croire que tout problème social ou environnemental trouvera sa solution dans un algorithme. C’est oublier que l’optimisation n’est pas la justice, et que la donnée ne remplace jamais le jugement.
L’IA tend à réduire la complexité humaine à une série de variables mesurables : flux, comportements, décisions.
En voulant rendre nos sociétés plus « efficaces », elle risque d’appauvrir notre rapport au monde – et à la nature elle-même.
Comme l’écrivait Bruno Latour dans Où atterrir ? (2017), nous devons « redescendre sur Terre » : non pas pour renoncer à la technique, mais pour la replacer dans le champ de la responsabilité collective.
La durabilité ne se décrète pas à coup d’API : elle se construit par délibération, par choix, par renoncement parfois.
Au-delà des aspects purement environnementaux, l’intelligence artificielle peut aussi jouer un rôle clé dans le renforcement de la participation citoyenne – un pilier souvent oublié mais essentiel de la durabilité urbaine. À Reykjavik, la plateforme Better Reykjavik, développée par la Icelandic Citizens Foundation, illustre cette dimension. Grâce au machine learning, cette plateforme traite les propositions des habitants soumises en ligne : les idées sont filtrées, traduites automatiquement, synthétisées vocalement, classées par pertinence, et les contenus abusifs sont écartés. Ce dispositif ne se contente pas de fluidifier le débat public : il renforce la légitimité des décisions locales en les ancrant dans une intelligence collective structurée.
Ce qui nous intéresse ici, c’est précisément ce que permet l’IA en matière d’empowerment citoyen. Robert Bjarnason, fondateur de la plateforme, résume cette philosophie dans une formule forte : « On dit de plus en plus que les villes doivent être intelligentes aujourd’hui, mais de notre côté, nous pensons que nous devons d’abord donner aux citoyens les clés pour être eux-mêmes intelligents et responsables. » Autrement dit, la durabilité ne repose pas uniquement sur des infrastructures optimisées ou des services décarbonés, mais aussi – et peut-être surtout – sur la capacité des individus à s’approprier leur environnement, à participer activement à sa transformation.
Cette approche rejoint la pensée de John Stuart Mill, pour qui la participation démocratique renforce « la prospérité générale en proportion du montant et de la variété des énergies personnelles mobilisées pour la promouvoir ». C’est une vision profondément transformatrice de l’individu : par son implication dans la vie publique, le citoyen ne devient pas seulement contributeur de la ville durable, il en devient un acteur conscient, capable de faire évoluer ses comportements et son cadre de vie.
c) Vers une sobriété numérique assumée
Enfin, adopter un usage raisonné de l’IA suppose une sobriété numérique, au sens où l’entend Dominique Bourg : non pas la privation, mais « l’intelligence de la limite » (Vers une démocratie écologique, 2010). Cette sobriété implique de revoir nos indicateurs de performance : ne plus mesurer la réussite d’un modèle à sa taille ou à sa puissance de calcul, mais à son impact net positif – environnemental, social et cognitif. Les travaux de Roy Schwartz et al. (Green AI, Communications of the ACM, 2020) ouvrent la voie : ils plaident pour des modèles transparents, documentés dans leur empreinte carbone, et conçus pour des usages ciblés plutôt que massifs. En somme, une IA sobre, ce serait une IA qui accepte de ne pas tout savoir, de ne pas tout prévoir, de ne pas tout optimiser.
Une IA humble, pour une humanité qui, elle aussi, aurait retrouvé le sens de la mesure.
Et si, au fond, la véritable révolution numérique consistait simplement à réapprendre la limite ?
Par Hector Advisory
