L’intelligence artificielle, un bienfait pour la planète ou un risque écologique ? 2


Temps de lecture : 5 minutes
Share Button
IA-ecologie-ORSYS

La transformation digitale chante ses louanges, mais la transition écologique fait son procès : l’intelligence artificielle. À quel point pollue-t-elle réellement ? Peut-on envisager une IA « responsable » ? Bref, cette technologie est-elle compatible avec la transition écologique ? Un nouvel axe que nous avons choisi d’aborder avec notre expert IA et robotique, Cédric Vasseur.

Des initiatives pour mettre l’IA au cœur de la transition écologique

Que peut faire l’intelligence artificielle pour l’écologie ? Est-elle déjà au cœur de quelques initiatives concrètes ?

L’écologie, science de l’étude des êtres vivants dans leur milieu, a tout à gagner avec l’IA. L’étude des êtres vivants, que ce soit les végétaux, les animaux ou l’être humain, implique de très nombreuses données, qu’il est impossible de traiter autrement que par une machine. Machine qui permet donc de simuler un véritable écosystème, de mieux le comprendre, de l’analyser et de l’améliorer.

L’agriculture, notamment, a toujours su tirer parti des mathématiques, des statistiques pour adapter au plus près les nutriments et quantités d’eau utiles. Avec le machine learning et le deep learning, ces modèles se sont affinés. On n’utilise plus des hélicoptères coûteux et assez polluants en carburant pour surveiller les champs, mais des drones, caméras et capteurs capables de numériser les plantations et de détecter les parasites, de repérer les zones trop ou mal irriguées et d’intervenir plus rapidement en gérant au plus près les ressources. On parle aujourd’hui « d’agriculture de précision », comme lorsque des robots à énergie solaire peuvent détecter les mauvaises herbes et les arracher mécaniquement (sans produits chimiques).

La crise climatique actuelle peut par ailleurs être plus facilement numérisée et comprise avec des outils liés à l’intelligence artificielle : savoir détecter un départ de feu ou un risque d’inondation peut sauver des vies. Plus concrètement, l’IA est utilisée pour gérer des systèmes domotiques complexes où votre chauffage peut s’éteindre et s’allumer automatiquement lorsque vous quittez ou rejoignez votre domicile. C’est le cas par exemple du travail de Sensing Vision, une start-up basée près de Rennes dont la technologie permet des économies d’énergie et une empreinte écologique plus légère en mesurant de nombreuses données météorologiques et autres capteurs.

L’impact environnemental de l’IA : une empreinte carbone à charge

On sait pourtant que le numérique est énergivore, et que cela semble largement impliquer l’intelligence artificielle. Pourquoi et comment l’IA pollue-t-elle ?

L’intelligence artificielle a besoin de machines pour fonctionner, et ces dernières sont composées de matériels et de matériaux qui posent déjà quelques débats (métaux rares pour les batteries). Mais ce qui est le plus souvent mis en avant, c’est la consommation électrique de ces installations et l’énergie perdue pour refroidir le tout (énergie fatale). Les machines « chauffent » lorsque des calculs sont nécessaires, lorsque des données sont écrites, lues ou dupliquées dans les data centers. Et bien que l’on cherche à trouver des composants de moins en moins énergivores, il faut toujours les refroidir pour leur permettre de fonctionner correctement.

Une climatisation vient généralement refroidir le tout, qui va également consommer de l’électricité, et paradoxalement chauffer « ailleurs », en dehors des data centers. On se retrouve avec une chaleur « extérieure » augmentée. C’est pourquoi l’on travaille sur des solutions de refroidissement en plongeant, par exemple, des serveurs dans des liquides ou des bases sous-marines… mais le problème de la chaleur reste le même : elle se disperse à l’extérieur.

Il existe toutefois des solutions très astucieuses pour « récupérer » cette chaleur excédentaire afin de la redistribuer sous forme de radiateur, comme le QRad de Quarnot pour des logements ou des collectivités, mais nous sommes loin d’avoir ce type de système généralisé à l’ensemble de la population et des data centers.

Peut-on réduire la quantité d’énergie employée notamment pour l’apprentissage en profondeur (deep learning) ? Comment ?

Je vois plusieurs possibilités.

En utilisant des modèles pré-entraînés adaptés à ses besoins. En effet, c’est la phase « d’entraînement » qui est la plus énergivore. La phase « d’inférence » (restitution d’un résultat à partir d’une nouvelle entrée sur un modèle entraîné) est bien moins consommatrice, presque anecdotique en comparaison.

En allégeant son modèle en fonction de ses besoins, par un élagage par exemple. On peut imaginer un « arbre des possibilités » que l’on taille branche après branche pour retirer les cas les plus rares, les moins efficaces et obtenir un modèle plus léger, rapide et moins énergivore.

En faisant entrer dans l’équation l’énergie dépensée pour entraîner le modèle ! Autrement dit, trouver le chemin le plus court pour un véhicule autonome, c’est déjà très bien… mais quel serait le moyen permettant d’arriver au même résultat en prenant en compte non seulement le carburant dépensé, mais aussi la consommation de l’IA ? En mixant différentes solutions, de la moins consommatrice à la plus consommatrice d’énergie. Mettons que l’on souhaite détecter si un ouvrier porte bien ses équipements de protection jaunes fluo : on fait une moyenne des pixels jaunes présents à l’écran, et en cas de doute, on identifie s’il s’agit bien d’un être humain, puis on creuse davantage en identifiant la partie du corps à laquelle il manque un gant, une chaussure…

Vers une IA responsable ?

Finalement, l’IA peut-elle véritablement être considérée comme un atout pour la transition écologique malgré son impact environnemental plutôt négatif ?

Il est difficile, voire impossible de revenir en arrière. Il existe bien des communautés coupées des technologies et qui le vivent très bien, mais les populations à travers le monde veulent généralement avoir accès à ces outils pour se divertir, se soigner, se déplacer, communiquer. Il est très dur de retirer cette « baguette magique » qui semble pouvoir résoudre tous les problèmes. Sans compter qu’il est plus facile aujourd’hui de mesurer la consommation électrique d’un e-mail que l’énergie consommée pour envoyer une lettre par voie postale : papier, timbre, enveloppe, transport, carburant, l’arbre coupé, encre, colle…

L’IA est un atout pour l’écologie si on sait la prendre en compte dans sa globalité avec ses avantages et ses défauts, et estimer les bénéfices à en tirer. Utiliser une énorme puissance de calcul pour gérer un petit jardin potager de quelques mètres carrés n’est pas rentable. De plus, les problèmes écologiques et environnementaux ne sont plus “locaux”, mais mondiaux, avec des modèles très complexes à gérer – ce qu’une IA sait très bien faire.

Doit-on en faire porter la responsabilité aux géants du web, dont les data centers sont particulièrement énergivores ?

Le premier data center à empreinte 0, voire à énergie positive, qui redistribue la chaleur excédentaire aux populations, date de 2015. Les nouveaux data centers des géants tentent d’atteindre un bilan carbone 0 avec différentes techniques : énergies renouvelables, prise en charge de l’énergie fatale, collecte des eaux de pluie… De nombreuses solutions sont mises en place pour limiter l’impact écologique qui est malheureusement bien réel.

Les géants du web ont des outils qui sont centralisés, très visibles, dont on peut quantifier finalement assez facilement l’impact, puisque tout est « presque » au même endroit. Mais c’est oublier tous les autres objets connectés, ordinateurs et tablettes qui nous entourent et qui chauffent à leur tour, composés de matériels et matériaux qui peuvent poser de vrais problèmes environnementaux.

Dispose-t-on de solutions (techniques, ressources, matériel…) pour une IA plus « responsable » ?

La redistribution de l’énergie excédentaire vers des systèmes de chauffage redistribués est une vraie solution à l’efficacité prouvée sur de nombreux projets. De plus, de nouveaux modèles associés au deep learning, plus souples, plus rapides et moins énergivores, émergent. Du CPU (Central Processing Units), on est passé au GPU (Graphical Processing Units) et maintenant à des TPU (Tensor Processing Units) et autres puces neuromorphiques optimisées pour le deep learning, généralement moins énergivore.

Il y a beaucoup de projets en mode « recherche et développement », phase très consommatrice, qui arrivent aujourd’hui à maturité. Une fois la tâche accomplie, on s’intéressera enfin à l’optimisation de ces derniers en termes d’énergie et d’écologie.


Pour vous former :

Cédric Vasseur ORSYS

Cédric Vasseur

Cédric Vasseur

Formateur, conférencier, chroniqueur spécialiste des nouvelles technologies liées à la robotique et à l’intelligence artificielle. Auteur de nombreux projets liés à l’IA et la robotique dont BeepAI une intelligence artificielle multiplateforme capable d’apprendre à programmer par elle-même. Travaille depuis plus de 15 ans sur de nombreux projets industriels, R&D, en tant qu’analyste-programmeur, responsable de département informatique, consultant formateur, conférencier, chroniqueur et animateur d’événements liés aux nouvelles technologies.

Share Button

Laissez un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

2 commentaires sur “L’intelligence artificielle, un bienfait pour la planète ou un risque écologique ?