ChatGPT n'est pas responsable des incendies de Los Angeles, mais il utilise une quantité insensée d'eau

Alors que les incendies de Los Angeles font rage, déplaçant près de 180 000 personnes et détruisant plus de 9 000 bâtiments, de nombreux utilisateurs des réseaux sociaux ont imputé la faute à une cible inhabituelle : ChatGPT.

ChatGPT et d’autres modèles d’IA ont une énorme empreinte carbone, qui contribue au changement climatique. Le changement climatique est responsable de conditions plus sèches et d’augmentation des températures, qui à leur tour créent un environnement idéal pour que les incendies de forêt se déclarent et se propagent lorsqu’ils sont déclenchés par des vents violents.

VOIR AUSSI :

Les destructions causées par les incendies de Los Angeles illustrées par les images satellite

Ainsi, d’une certaine manière, ChatGPT fait partie du problème en contribuant au changement climatique. Mais non, ChatGPT n’a pas déclenché l’incendie, et ce n’est pas pour cela que la ville a manqué d’eau.

Martin Adams, ancien directeur général du Département de l’eau et de l’électricité de Los Angeles, a déclaré ceci : Los Angeles Times«LE [water] Le système n’a jamais été conçu pour combattre un incendie qui ravage ensuite une communauté. » Les pompiers ont manqué d’eau parce que le système n’était pas conçu pour pomper autant d’eau pendant une période prolongée, et non parce qu’il était approprié par les centres de données.

La conversation en ligne reliant ChatGPT aux incendies de Los Angeles n’a jamais eu pour objectif d’accuser littéralement les modèles d’IA d’avoir déclenché des incendies. Au lieu de cela, il a lié la pertinence du temps réel à un problème croissant : l’impact de l’intelligence artificielle sur l’environnement.

«Nous n’avons pas besoin de l’art de l’IA.» Nous n’avons pas besoin de listes de courses alimentées par l’IA. Nous n’avons pas besoin de voitures autonomes alimentées par l’IA. Nous n’avons pas besoin de ChatGPT, Gemini, Grok, DALL-E ou de toute autre technologie «révolutionnaire» déjà existante dans notre cerveau humain et dont nous avons besoin sur terre», a écrit le maquilleur et activiste Matt Bernstein dans une publication Instagram qui a reçu près de 500 000 likes. .

Vitesse de la lumière écrasable

Alors, combien d’eau ChatGPT utilise-t-il ?

Les entreprises technologiques comme Google, Microsoft et OpenAI restent évasives sur leur consommation d’énergie. Mais il est possible d’accéder à la consommation d’eau grâce aux registres publics et de l’estimer grâce à des calculs effectués par des chercheurs. Une enquête menée en 2023 par l’Associated Press a révélé que les centres de données Microsoft de Des Moines, dans l’Iowa, utilisés pour entraîner le GPT-4 d’OpenAI, avaient besoin de 11,5 millions de gallons d’eau pour refroidir leurs serveurs, soit 6 % de l’approvisionnement total en eau du district.

Une étude récente de LE Washington Post et l’Université de Californie à Riverside ont découvert qu’un e-mail de 100 mots généré par ChatGPT nécessite à peu près l’équivalent d’une bouteille d’eau, soit 519 millilitres. L’utilisation de ChatGPT une fois par semaine pendant un an par 16 millions de personnes utilise 435 235 476 litres d’eau.

Bref, beaucoup d’eau. Et la soif d’IA ne va pas diminuer de si tôt. Une étude réalisée en 2023 par l’UC Riverside estime que l’IA pourrait consommer entre 4,2 et 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement d’eau annuel de la moitié du Royaume-Uni.

Qu’en est-il du reste de la consommation électrique de ChatGPT ?

Dans la publication virale de Bernstein sur Instagram, il a écrit : « Une recherche sur ChatGPT utilise 10 fois plus d’énergie qu’une recherche sur Google. La formation d’un modèle d’IA produit la même quantité de dioxyde de carbone que 300 vols aller-retour entre New York et San Francisco. et cinq fois les émissions sur toute la durée de vie d’une voiture.

Ces résultats proviennent d’une étude réalisée en 2019 par l’Université du Massachusetts à Amherst quantifiant le coût environnemental du GPT-2, qui était l’un des premiers modèles d’IA d’OpenAI. Et depuis, l’utilisation de ChatGPT a explosé, avec 300 utilisateurs actifs hebdomadaires selon les rapports OpenAI en décembre 2024. En ce qui concerne l’électricité nécessaire pour soutenir sa puissance de calcul énorme, Sajjad Moazeni, professeur adjoint en génie électrique et informatique à l’Université de Washington, estime que ChatGPT consomme 1 gigawattheure (GWh) par jour, ce qui équivaut à la consommation quotidienne d’énergie d’environ 33 000 foyers américains.

ChatGPT n’est pas directement responsable des incendies à Los Angeles, mais le constat des ravages en temps réel met en lumière le coût environnemental de l’utilisation de l’IA pour rédiger des e-mails de manière très évidente.

Si vous souhaitez contribuer mais ne savez pas par où commencer, le Los Angeles Times propose un excellent guide ici.

SOURCE

Por Staff

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *