El buen uso de ChatGPT está teniendo un costo asociado indeseado plantea un estudio reciente, ya que como revela un nuevo documento, está consumiendo una cantidad enorme de agua.

Investigadores de la Universidad de Colorado Riverside y la Universidad de Texas Arlington han compartido un documento aún por revisar por pares titulado «Making AI Less Thirsty» que analiza el impacto ambiental del entrenamiento de IA, que no solo necesita abundante electricidad sino también toneladas de agua para enfriar los centros de datos.
Las nuevas investigaciones sugieren que sólo el entrenamiento de GPT-3 consumió 700.000 litros de agua. El intercambio conversacional de un usuario medio con ChatGPT equivale básicamente a verter una gran botella de agua fresca en el suelo, según el nuevo estudio. Dada la popularidad sin precedentes del chatbot, los investigadores temen que todas esas botellas derramadas puedan afectar negativamente a las reservas de agua, sobre todo en un contexto de sequías históricas e incertidumbre medioambiental en Estados Unidos.
El gigantesco número de litros necesarios para entrenar el modelo de IA también supone que el entrenamiento se realiza en el centro de datos estadounidense de última generación de Microsoft, construido especialmente para OpenAI por valor de decenas de millones.
Los investigadores prevén que estas necesidades de agua aumenten aún más con los nuevos modelos, como el recientemente lanzado GPT-4, que se basan en un mayor conjunto de parámetros de datos que sus predecesores.