Los enormes costos de agua y energía que consumen los bots de la IA
En Sintonizados, Carolina de Moras y nuestro periodista Diego Zárate conversaron sobre el gasto energético e hídrico de los chatbots de la inteligencia artificial.
En el contexto de creciente uso de la tecnología, y en pleno auge de la inteligencia artificial, se creería que estas herramientas no generan huella de carbono, o bien no necesitan de un “combustible” para funcionar. Sin embargo, los niveles de agua y energía que consumen, son altísimos.
En Sintonizad@s, Carolina de Moras y el periodista Diego Zárate hablaron sobre el inmenso gasto energético de los bots de la inteligencia artificial y sus servidores.
Diego Zárate comentó que, The Washington Post entregó el caso de Chat GPT para ejemplificar el nivel de gasto. “Chat GPT para un correo de 100 palabras, depende de la zona. Por ejemplo, en Texas, se necesitan 235 mililitros de agua, que es más o menos una tacita de agua”.
Asimismo, agregó que en “Washington, que queda un poquito más lejos de donde está el servidor, esa misma tarea requiere 1400 mil litros de agua, que es medio litro. Imagínate nosotros aquí en Chile cuando mandamos a hacer un correo de 100 palabras, debe ser incluso más.
En la misma línea, el periodista habló sobre el consumo energético el cual depende del tamaño del servidor.
“En general los servidores masivos de inteligencia artificial son muy grandes y necesitan una calefacción muy buena, que mantenga frío todos estos servidores, o mucha agua. Entonces, en el caso de la electricidad, para esta misma cantidad de información, un correo de 100 palabras, el gasto energético es lo mismo que gastan 12 focos LED en una hora.
Para seguir sorprendiendo, Zárate explicó que “el centro de data de Google que está en Portland, consume una cuarta parte del agua disponible de toda la ciudad”.
Por su parte, Carolina de Moras señaló que para descargar un gigabyte de contenido de la nube, se necesitan 200 litros de agua.
Revisa el momento completo a continuación: