La tecnología de inteligencia artificial detrás de ChatGPT se construyó en Iowa, con mucha agua
DES MOINES, Iowa: El costo de crear un producto de inteligencia artificial como ChatGPT puede ser difícil de medir.
Pero una cosa que OpenAI, respaldada por Microsoft, necesitaba para su tecnología era mucha agua, extraída de la cuenca de los ríos Raccoon y Des Moines en el centro de Iowa para enfriar una poderosa supercomputadora que ayudaba a enseñar a sus sistemas de inteligencia artificial cómo imitar la escritura humana.
Mientras corren por capitalizar la moda de la IA generativa, los principales desarrolladores de tecnología, incluidos Microsoft, OpenAI y Google, han reconocido que la creciente demanda de sus herramientas de IA conlleva costos elevados, desde costosos semiconductores hasta un aumento en el consumo de agua.
Pero a menudo son reservados sobre los detalles. Pocas personas en Iowa conocían su condición de lugar de nacimiento del modelo de lenguaje grande más avanzado de OpenAI, GPT-4, antes de que un alto ejecutivo de Microsoft dijera en un discurso que «fue literalmente creado junto a campos de maíz al oeste de Des Moines».
Construir un modelo de lenguaje grande requiere analizar patrones en una enorme cantidad de texto escrito por humanos. Toda esa informática consume mucha electricidad y genera mucho calor. Para mantenerlo fresco en los días calurosos, los centros de datos necesitan bombear agua, a menudo a una torre de enfriamiento fuera de sus edificios del tamaño de un almacén.
En su último informe medioambiental, Microsoft reveló que su consumo mundial de agua aumentó un 34% entre 2021 y 2022 (a casi 1.700 millones de galones, o más de 2.500 piscinas olímpicas), un fuerte aumento en comparación con años anteriores que investigadores externos relacionan con su investigación de IA.
«Es justo decir que la mayor parte del crecimiento se debe a la IA», incluida «su fuerte inversión en IA generativa y su asociación con OpenAI», dijo Shaolei Ren, investigador de la Universidad de California en Riverside, que ha estado tratando de calcular la Impacto ambiental de los productos de IA generativa como ChatGPT.
En un artículo que se publicará a finales de este año, el equipo de Ren estima que ChatGPT bebe 500 mililitros de agua (cerca de lo que hay en una botella de agua de 16 onzas) cada vez que le haces una serie de entre 5 y 50 indicaciones o preguntas. La oferta varía según dónde se encuentren sus servidores y la temporada. La estimación incluye el uso indirecto de agua que las empresas no miden, como para enfriar las plantas de energía que suministran electricidad a los centros de datos.
«La mayoría de la gente no es consciente del uso de recursos subyacente a ChatGPT», dijo Ren. «Si no se es consciente del uso de los recursos, entonces no hay manera de que podamos ayudar a conservarlos».
Google informó un crecimiento del 20% en el uso de agua en el mismo período, lo que Ren también atribuye en gran medida a su trabajo con IA. El aumento de Google no fue uniforme: fue constante en Oregón, donde su uso de agua ha atraído la atención del público, mientras que se duplicó fuera de Las Vegas. También tenía sed en Iowa, donde atraía más agua potable a sus centros de datos de Council Bluffs que a cualquier otro lugar.
En respuesta a preguntas de The Associated Press, Microsoft dijo en un comunicado esta semana que está invirtiendo en investigación para medir la huella energética y de carbono de la IA «mientras trabaja en formas de hacer que los sistemas grandes sean más eficientes, tanto en capacitación como en aplicación».
«Continuaremos monitoreando nuestras emisiones, aceleraremos el progreso y al mismo tiempo aumentaremos nuestro uso de energía limpia para alimentar los centros de datos, compraremos energía renovable y otros esfuerzos para cumplir nuestros objetivos de sostenibilidad de ser carbono negativo, agua positiva y cero residuos para 2030», afirmó. dijo el comunicado de la compañía.
OpenAI se hizo eco de esos comentarios en su propia declaración del viernes, diciendo que está “pensando mucho” en el mejor uso de la potencia informática.
«Reconocemos que entrenar modelos grandes puede consumir mucha energía y agua» y trabajamos para mejorar la eficiencia, dijo.
Microsoft realizó su primera inversión de mil millones de dólares en OpenAI, con sede en San Francisco, en 2019, más de dos años antes de que la startup presentara ChatGPT y despertara la fascinación mundial por los avances de la IA. Como parte del acuerdo, el gigante del software suministraría la potencia informática necesaria para entrenar los modelos de IA.
Para hacer al menos parte de ese trabajo, las dos compañías buscaron West Des Moines, Iowa, una ciudad de 68.000 habitantes donde Microsoft ha estado acumulando centros de datos para impulsar sus servicios de computación en la nube durante más de una década. Su cuarto y quinto centro de datos abrirán allí a finales de este año.
«Los están construyendo lo más rápido que pueden», dijo Steve Gaer, quien era alcalde de la ciudad cuando Microsoft llegó a la ciudad. Gaer dijo que la empresa se sintió atraída por el compromiso de la ciudad de construir infraestructura pública y contribuyó con una suma «asombrosa» de dinero a través del pago de impuestos que respaldan esa inversión.
«Pero, ya sabes, eran bastante reservados sobre lo que estaban haciendo allí», añadió.
Microsoft dijo por primera vez que estaba desarrollando una de las supercomputadoras más poderosas del mundo para OpenAI en 2020, negándose a revelar su ubicación a AP en ese momento, pero describiéndola como un “sistema único” con más de 285.000 núcleos de semicomputadoras convencionales.