La science exige de la clarté sur les émissions de l’intelligence artificielle

Assurez-vous d'avoir des informations sur une intelligence artificielle (IA) et consommez beaucoup plus d'énergie (dix fois plus, según se estime) que faire la même pétition à un buscador traditionnel. La vulgarisation de l'IA est une grande quantité d'électricité qui s'étend aux centres de calcul qui exécutent vos algorithmes. Oui, c’est une différence entre vos émissions (en plus de la consommation d’eau pour les consommateurs, l’autre impact ambiant de l’IA).

Les gaz à effet de serre générés par Google augmentent le cas un 50% depuis 2019, selon l'information ambiante de l'entreprise présentée au début de juillet. Tout cela signifie qu'il doit être le créateur d'un emploi d'IA. Microsoft et Meta ont également expérimenté des sauts de deux chiffres en émissions.

En juin, le directeur exécutif d'OpenAI (l'entreprise qui est à l'écart de ChatGPT) Sam Altman a déclaré au Forum de Davos que la prochaine génération de systèmes d'IA génératrice nécessite tant d'énergie qu'elle « ne peut pas tout lire sans quelque chose ». innovation radicale« .

Opacité

Ces signaux d'alarme contrastent avec la grande opacité des géants technologiques sur la consommation spécifique de l’IA. « Selon votre rapport, Google ne fait aucune discrimination en matière de type de calcul. Tout le monde veut savoir ce qui se passe avec (les émissions de) l'IA et les entreprises se refusent à cette information », observe Alex de Vriesdirecteur de la consultora Digiconomist et auteur d'un des quelques travaux d'investigation visant à quantifier les émissions de l'IA.

«Je produis une panique parce que les institutions publiques n'analysent pas ces valeurs. Parce qu'un producteur l'oculte, nous savons qu'il émet un moteur de combustion déterminé. Con la IA, no lo sabemos”, affirme-t-il. Cécilio Angulochercheur en IA de l'Université Politècnica de Catalunya.

« Les entreprises ne fournissent pas toutes les informations nécessaires et, par conséquent, il n'y a pas beaucoup d'études sérieuses sur le thème », coïncident Xavier Obradorschercheur de l'Institut de Sciences de Matériaux de Barcelone (ICMAB-CSIC).

33.000 domiciles

La réponse aux émissions est associée à la IA générative, des applications comme ChatGPT ou Midjourney qui simulent la créativité humaine. «C'est un modèle utilisé avec des milliers de millions de paramètres chaque fois qu'ils interagissent avec eux et disparaissent ainsi de la consommation d'énergie», explique Vries.

C'est pourquoi vous souhaitez que chaque personne consulte une fonction de plusieurs processeurs, qui sont également des unités de traitement graphique. Après une estimation, il y a un an ChatGPT consommation journalière équivalente à 33.000 domiciles.

Les consultations provoquent la majeure partie des émissions, mais c'est pour cela que l'énergie dépensée pour le entraînement des modèles : quelques mois au cours des réseaux neuronaux qui les conforment à leur processus de traitement de millions de textes, d'images et de vidéos, pour apprendre à générer ce format. L'entraînement de ChatGPT-3 a généré des émissions équivalentes au cours d'une année de circulation de 123 voitures, selon un studio.

Croissance exponentielle

Les technologies numériques sont les responsables de entre le 1,4% et le 5,9% des émissions mondiales, selon un studio de la Royal Society – une fraction partagée avec l’association avec l’aviation.

L'IA sera responsable d'un 0,01% du totalselon une estimation de l'Agence internationale de l'énergie (IEA) – moins de ce qui émet les algorithmes des crypto-monnaies, par exemple.

Cómo dans le cas de l'aviation, ce qui préoccupe est la perspective de une croissance exponentielle. L'atelier de Vries suggère qu'en 2027 l'IA consomme le 0,5% de l'énergie électrique totale, semblable à celle d'un pays comme l'Argentine ou les Pays Bas.

« Comme le plus grand est le modèle (l'algorithme qui soutient l'IA) les principaux résultats obtenus. Nous nous envoyons à modèles énormes servidos en vivo à des millions d'utilisateurs au même moment», affirme Vries.

Par conséquent, Sam Altman d'OpenAI s'est inversé dans une start-up de fusion nucléaire et Amazon a acheté un centre de données sur le site d'un centrale nucléaire. De Vries tilda estas operaciones de desvío de atención. Un studio de Wells Fargo, par exemple, argumente que dans la prochaine décennie sera le gaz naturel ce qui alimente l'IA.

D'autres écrans d'experts pour lesquels l'IA peut être toucher la technologie plus bientôt que tard. Il est important de noter que si vous avez terminé les textes avec les textes, vous pouvez introduire les « grands modèles de langage ». « Estamos cerca de un estancamiento. Les limitations qui ne sont pas très faciles. Nous ne pensons pas que nous allons nous rapprocher d'une IA généraliste (comparable à l'intelligence humaine) », affirme-t-il.

La nouvelle tendance est d'entreprendre petits modèles de langage, ou des modèles d'IA les plus petits, basés sur la documentation concrète d'une entreprise. « Une automobile ne s'intéresse pas à une IA séparée des turbines de l'aviation. Une pharmacie ne s'intéresse pas à une IA indépendante de l'architecture», observe Angulo.

« Están circulando mensajes alarmistas. L'IA seguirá siendo une petite source d'émissions, comparée au transport ou à l'industrie », a affirmé Obradors, qui a puesta por unea mejora de la efficacité des chips et des algorithmes, et pour une plus grande utilisation de l'énergie renouvelable pour l'alimentation.

Alors que tous les experts consultés coïncident, à mesure que l'énergie gastrique se convertit en un luxe, elle fournira l'IA gratuite pour tout le monde. « Google est à la recherche de votre énergie énergétique pour vouloir annoncer que va à tuer para ciertos procesos”, affirme Angulo.

Abonnez-vous pour suivre le cours