L'enjeu est de taille car d'ici 2025, le secteur devrait consommer 20% de l'électricité produite au niveau mondial et représenter 5,5% des émissions carbones totales.
Nous pouvons utiliser l'IA de manière à améliorer les usages afin de les rendre compatibles avec les exigences climatiques, ou ne rien faire et en subir les conséquences.
Plus récemment, une étude conjointe de Google et l'Université de Berkeley a estimé que l'entraînement de robot génératif GPT-3 avait entraîné l'émission de 552 tonnes de carbone, autant qu'une voiture roulant sur deux millions de kilomètres.
A la base de ce développement, se trouvent les processeurs graphiques, ou GPU, fabriqués par Nvidia, particulièrement énergivores.
Une fois l'entraînement passé, la mise en service des outils d'IA générative via le cloud nécessite aussi de l'énergie par la consommation liée aux requêtes reçues. Et cette dernière dépasse très largement celle de la phase d'entraînement.
Amazon Web Service (AWS), Microsoft ou Google, principaux acteurs du cloud, assurent chercher à réduire leur consommation d'énergie. AWS a même annoncé viser la neutralité carbone d'ici 2040, Microsoft se voulant pour sa part "une entreprise à émissions négatives et sans déchet" d'ici 2030.
Et les premiers éléments semblent montrer que ces groupes veulent y parvenir: entre 2010 et 2018 la consommation des centres de données dans le monde a augmenté de 6%, malgré une hausse de leur utilisation de 550%, selon les données de l'Agence internationale de l'énergie (AIE).
Pour les nouveaux magnats de l'IA, l'empreinte carbone de leur création n'est pas la question et masque son potentiel révolutionnaire.
Le patron de Nvidia, Jensen Huang, estime lui que le déploiement massif de l'IA et des calculs plus rapides pourraient permettre à terme de diminuer la demande en cloud, et donc la consommation du secteur.