Por Delger Erdenesanaa para The New York Times en exclusiva para AM
(Clima hacia adelante)
ChatGPT de OpenAI estalló en popularidad hace casi un año, ya que alcanzó un estimado de cien millones de usuarios en dos meses y detonó un auge de la inteligencia artificial. Tras bastidores, la tecnología depende de millas de chips de computadora especializados. Y en los años por venir, podría consumir cantidades inmensas de electricidad.
Un análisis arbitrado publicado el martes presenta algunas estimaciones tempranas. En un contexto promedio, para 2027, los servidores de inteligencia artificial podrían usar entre 85 y 134 teravatios hora (TWh) al año. Eso representa una cantidad similar a la que usa un país como Argentina, los Países Bajos o Suecia en un año y equivale a alrededor del 0,5 por ciento del uso actual de electricidad de todo el mundo.
Alex de Vries, el científico de datos que hizo el análisis, declaró: “No tenemos que exagerar. Pero al mismo tiempo, los números que escribo… no son pequeños”.
La electricidad necesaria para que la inteligencia artificial opere podría hacer aumentar las emisiones de carbono globales, lo que dependería de si los centros de datos obtienen su energía de combustibles fósiles o de fuentes renovables.
En 2022, los centros de datos que hacen funcionar a todas las computadoras, incluida la nube de Amazon y el motor de búsqueda de Google, usaron entre el 1 y el 1,3 por ciento de la electricidad del mundo. Eso no incluye el minado de criptomonedas, que usó otro 0,4 por ciento, aunque algunos de esos recursos ahora se están reasignando a la inteligencia artificial.
De Vries es un estudiante de doctorado en la Universidad Libre de Ámsterdam y fundó la compañía de investigación Digiconomist, que publica el Índice de Consumo de Energía del Bitcóin.
Es imposible cuantificar con exactitud el consumo de energía de la inteligencia artificial, porque compañías como OpenAI divulgan muy pocos detalles, incluso sobre cuántos chips especializados necesitan para operar su software. Así que a De Vries se le ocurrió una forma de estimar el consumo de electricidad mediante las ventas proyectadas de servidores Nvidia A100 (el hardware que se estima es utilizado por el 95 por ciento del mercado de la inteligencia artificial).
De Vries afirmó: “Cada uno de estos servidores Nvidia es una bestia ávida de electricidad”.
El científico comenzó con una proyección reciente de que Nvidia podría comercializar 1,5 millones de esos servidores para 2027 y multiplicó ese número por el consumo de electricidad de sus servidores: por ejemplo, 6,5 kilovatios de los servidores DGX A100 de Nvidia y 10 ,2 kilovatios por su DGX H100.
Destacó varios aspectos a considerar. Los clientes podrían usar los servidores a menos del 100 por ciento de su capacidad, lo que disminuiría su consumo de electricidad. Sin embargo, la refrigeración de los servidores y otra infraestructura podrían elevar aún más el total.
La mira de Nvidia está fija en la inteligencia artificial
Como ha informado The New York Times, Nvidia ostenta una gran ventaja en el hardware para inteligencia artificial que probablemente se mantenga durante varios años, aunque los rivales luchan por alcanzarla. El suministro limitado de chips de Nvidia es un obstáculo para el crecimiento de la inteligencia artificial, pues causa que compañías chicas y grandes tengan que batallar para encontrar su propia fuente de chips.
Benjamin Lee, un profesor de Ingeniería Eléctrica e Informática en la Universidad de Pensilvania, opinó: “Hay muchas declaraciones dramáticas sobre el crecimiento rápido de la inteligencia artificial y todo eso, pero en realidad se trata de cuán rápido puedes distribuir esos chips”.
Nvidia mencionó en un comunicado enviado por correo electrónico que los chips especializados de la empresa son mejores que otras opciones, dado que serían necesarios muchos más chips convencionales para realizar las mismas tareas.
La empresa aseguró: “La computación acelerada que usa la tecnología de Nvidia es el modelo computacional de mayor eficiencia energética para la inteligencia artificial y otras cargas de trabajo de los centros de datos”.
Algunos expertos instantánea a las empresas a que consideran el consumo de electricidad al momento de diseñar la próxima generación de hardware y software para inteligencia artificial. Sin embargo, es difícil convencerlas de hacerlo cuando están tan apuradas por mejorar sus modelos de inteligencia artificial tan rápido como pueden.
Roberto Verdecchia, un profesor adjunto en el Laboratorio de Tecnologías de Software de la Universidad de Florencia, mencionó: “Tal vez lo ideal es que desaceleremos un poco el ritmo para comenzar a aplicar las soluciones que tenemos. No hagamos un modelo nuevo solo para mejorar su precisión y velocidad, también tomemos un gran respiro y veamos cuánto estamos quemando en términos de recursos ambientales”.
c.2023 The New York Times Company
JFF