La inteligencia artificial, y especialmente los chatbots como ChatGPT, se han convertido en herramientas indispensables en nuestra vida digital cotidiana. Sin embargo, pocas personas son conscientes de la enorme cantidad de energía necesaria para hacer funcionar estos sistemas sofisticados. Detrás de cada respuesta se esconde una infraestructura colosal que consume recursos considerables, planteando preguntas sobre la sostenibilidad de esta tecnología.
Los centros de datos, donde se alojan y entrenan los modelos de IA, representan una parte significativa del consumo eléctrico mundial. En Estados Unidos, utilizaron el 4,4 % de la electricidad en 2023, y se espera que esta proporción al menos se duplique para 2030. Este rápido crecimiento está directamente relacionado con la explosión de la demanda de servicios de inteligencia artificial, con miles de millones de consultas procesadas cada día.
El entrenamiento de los modelos de lenguaje es particularmente voraz en energía. Para aprender a reconocer patrones y hacer predicciones, estos sistemas analizan conjuntos de datos gigantescos durante semanas o meses. Por ejemplo, el entrenamiento de GPT-4 requirió 50 gigavatios-hora, suficiente para alimentar una gran ciudad como San Francisco durante tres días. Esta fase depende de servidores potentes equipados con múltiples unidades de procesamiento gráfico (GPU).
La inferencia, es decir, el momento en que el chatbot genera una respuesta a partir de una consulta, también consume mucha energía debido al volumen colosal de solicitudes. Con más de 2.500 millones de prompts diarios solo en ChatGPT, los servidores deben funcionar permanentemente para proporcionar respuestas casi instantáneas.
Los investigadores trabajan para cuantificar mejor estos consumos y encontrar formas de reducirlos. Sin embargo, las grandes empresas tecnológicas suelen mantener estos datos confidenciales, lo que complica la evaluación precisa del impacto ambiental.
El proceso de entrenamiento de los modelos de IA
El entrenamiento de un modelo de inteligencia artificial consiste en hacer que analice vastos conjuntos de datos para que aprenda a reconocer patrones y realizar tareas específicas. Esto implica cálculos matemáticos ejecutados por procesadores especializados, a menudo GPU diseñadas para el procesamiento paralelo.
Cuanto más grande y complejo es el modelo, más largo y energéticamente costoso es su entrenamiento. Los investigadores buscan crear sistemas más eficientes, pero la carrera por el rendimiento a menudo lleva a priorizar el tamaño en detrimento de la eficiencia.
Técnicas como el aprendizaje por transferencia permiten reutilizar modelos preentrenados para nuevas tareas, reduciendo así la necesidad de comenzar el entrenamiento desde cero. Esto permite ahorrar energía, pero no resuelve completamente el problema.
La optimización de algoritmos y el uso de hardware más eficiente energéticamente son caminos prometedores para hacer que el entrenamiento sea más sostenible en el futuro.
Fuente: Energy Policy