Una nueva investigación descubrió que los chatbots potenciados por inteligencia artificial como ChatGPT de OpenAI, o Bard de Google, están consumiendo una enorme cantidad de electricidad y agua. Los centros de datos bajos los que operan estarían gastando cantidades de poder similares al de ciudades completas y podrían llegar a necesitar mucha más.
En un nuevo análisis publicado en la revista Joule, el científico Alex de Vries de la Vrije Universiteit Amsterdam en Países Bajos descubrió que para el 2027, las granjas de servidores podrían necesitar entre 85 y 134 terawatts de energía por año.
La alarmante cifra es la misma cantidad de electricidad que Argentina o Suecia gastan en un año, o en otras palabras, el 0,5% de la demanda energética del mundo. Las exigencias podrían crear una enorme huella de carbono, por lo que el experto urge a las compañías que invierten en inteligencia artificial a moderar los avances, antes de que se transformen en un problema más grande.
¿Cuánta energía gasta la inteligencia artificial?
Según reporta Futurism, llegar a una cifra exacta de cuanto poder gastan tecnologías como ChatGPT o Bard es difícil, ya que las compañías mantienen en secreto estos datos , De Vries estimó qué tan grande es el consumo eléctrico de los servidores que las sostienen.
Analizando la venta de servidores Nvidia A100, que conforman 95% de la industria de la Inteligencia Artificial, el científico llegó al cálculo estimado, afirmando que estos aparatos son “máquinas sedientas de poder“.
No todo sería tan sombrío, sin embargo, ya que hay diferentes compañías tratando de solucionar estos problemas a través de la creación de nuevas tecnologías.
Deja tu comentario