L’innovation de l’IA peut-elle rimer avec l’écologie ?
En janvier 2025, la start-up chinoise DeepSeek lance son propre modèle d’intelligence artificielle. Développé à un coût faible, on constate que l’IA consomme notamment moins d’énergie que ces concurrents américains comme ChatGPT (GPT-4) et Gemini. Est-il donc possible de produire et de générer des IA consommant moins d’énergie, écologiques et respectueuses de l’environnement ? Or pour Jules Delcon, Project Manager à l’Institut Belge du Numérique Responsable, l’IA durable, ce n’est pas pour toute suite…
L’entreprise chinoise DeepSeek a dévoilé un nouveau modèle d’intelligence artificielle sur le marché. Quelles comparaisons pouvons-nous faire en terme de consommation énergétique avec les autres IA (ChatGPT et Gemini) ?
J-Pour comprendre la consommation énergétique, il faut avant tout définir « les impacts ». Il est important de faire une analyse du cycle de vie d’un produit ou d’un service numérique pour mesurer la consommation énergétique. Dans une IA, il y a la phase d’utilisation mais il y a également les enjeux des déchets et la production des équipements. A chaque fois qu’on a des gains d’efficience sur la consommation d’une technologie, on a tendance à beaucoup plus l’utiliser. On a vu que DeepSeek coûte beaucoup moins chère que ChatGPT, donc il est accessible à plus de consommateurs. Même si DeepSeek consomme 10 fois moins d’énergie que ChatGPT, si on l’utilise 10 fois plus, la consommation énergétique restera identique, même si DeepSeek consomme moins d’énergie.
Quelles sont les techniques utilisées par DeepSeek pour optimiser son efficacité énergétique (architecture du modèle, algorithmes plus légers…) ?
J-Avant d’aborder la question de l’efficacité énergétique, il faut parler de la question du mix énergétique. L’efficacité énergétique ne fait pas tout. On peut avoir un data center qui consomme beaucoup moins d’énergie en Chine et un data center qui consomme quatre fois plus en France et même si il consommait quatre fois plus ça ne change pas grand-chose. Pour illustrer, comparons deux IA dont la consommation énergétique est complétement différente. La première IA, BLOOM, qui a un PUE2 de 1.2 et a une intensité carbonique de 57gCO2eq/kWh 3et a pourtant une émission énergétique de 30 tonnes de CO2 (dioxyde de carbone). Cependant, la deuxième IA OPT qui a une PUE plus petite 1.09 et une intensité carbonique de 231gCO2eq/kWh comporte une émission énergétique plus importante que BLOOM (76.3 tonnes). L’important ici est de comprendre que même si une IA est composé d’un PUE élevé, cela ne signifie pas forcément qu’elle émettra plus de dioxyde de carbone. C’est un point important à retenir.
Est-ce que les entreprises travaillant sur le développement de l’IA auront une responsabilisation légale ou éthique pour limiter l’impact environnemental ?
J-Une nouvelle réglementation arrive au niveau de l’Europe (la réglementation 2024/1364). Une obligation pour les départements RSE (Responsabilité sociétale des entreprises) afin de réduire leur empreinte sur la consommation d’énergie, d’eau et émissions à effet de serre. Quand il y a des obligations légales, il y a des pénalités si on ne les respecte pas. Les entreprises seront obligées de respecter les restrictions imposées. Ce qui est important à retenir, c’est que l’on doit respecter la limite planétaire (le jour du dépassement). Kate Raworth l’explique dans sa théorie du Donut. Le service de l’IA doit fonctionner tout en respectant les neuf limites planétaires du plafond environnemental et les onze domaines constitutifs du plancher social (s’assurer que tout le monde à accès à l’eau, aux moyens de santé, à l’éducation etc…).

