Mundo, 24 junio 2025 (ATB Digital).— Un estudio reciente publicado en la revista Frontiers revela que la huella ambiental de la inteligencia artificial (IA) varía significativamente según la tarea ejecutada y el modelo utilizado. De acuerdo con la investigación, ciertos comandos dirigidos a modelos de IA pueden generar hasta 50 veces más emisiones de CO₂ que otros, dependiendo de la complejidad de la consulta y la arquitectura del sistema.
Este hallazgo, reportado por TIME, destaca el dilema entre la precisión de las respuestas y la sostenibilidad ambiental en el uso diario de esta tecnología, cada vez más presente en la vida cotidiana.
Según datos citados por TIME, aproximadamente una cuarta parte de la población de Estados Unidos, por ejemplo, utiliza sistemas de IA varias veces al día, mientras que otro 28% lo hace al menos una vez al día. No obstante, la mayoría de los usuarios desconoce el impacto ambiental de estas interacciones.
Por ejemplo, una sola consulta a través de ChatGPT puede consumir diez veces más electricidad que una búsqueda en Google, según la International Energy Agency (IEA). Este mayor consumo energético se traduce en emisiones de CO₂, que varían según el modelo de IA y la complejidad de la tarea.
Aumento del uso de IA y su impacto energético
El uso extensivo de sistemas de inteligencia artificial ha incrementado la demanda energética, especialmente en los centros de datos que procesan estas operaciones. De acuerdo con TIME, los data centers representaron el 4,4% del consumo eléctrico total de Estados Unidos en 2023. Las estimaciones indican que esta cifra podría elevarse a entre 6,7% y 12% para 2028.
La expansión de la infraestructura tecnológica también ha sido notable. En 2012 existían cerca de 500.000 centros de datos en el mundo; para septiembre de 2024, la cifra superaba los 8 millones. Este crecimiento responde al avance global de la IA y el almacenamiento de datos, pero plantea dudas sobre la sostenibilidad del modelo.
El contraste entre el consumo energético de la IA y otros servicios digitales es significativo. Según la IEA, una sola interacción con ChatGPT puede requerir diez veces más electricidad que una búsqueda en Google. Este dato, recogido por TIME, refuerza la necesidad de considerar el impacto energético de cada uso de la tecnología.
Metodología del estudio y análisis de modelos
La investigación publicada en Frontiers, liderada por Maximilian Dauner de la Hochschule München University of Applied Sciences, evaluó el impacto ambiental de 14 modelos de lenguaje de gran tamaño, cuyas arquitecturas varían entre 7.000 y 72.000 millones de parámetros. Para medir su rendimiento, se utilizaron 1.000 preguntas estandarizadas que abarcaban diversos temas.
El análisis se centró en la cantidad de tokens generados por cada modelo para formular una respuesta. Los tokens son las unidades mínimas de texto que un modelo procesa para generar contenido. Según TIME, los modelos con funciones de razonamiento avanzado generaron un promedio de 543,5 tokens adicionales por pregunta, frente a los modelos más concisos, que emplearon solo 37,7 tokens por respuesta.
Esta diferencia influye directamente en las emisiones de CO₂, ya que un mayor número de tokens implica más consumo energético, independientemente de la calidad de la respuesta. El estudio identificó tareas que liberan hasta 50 veces más CO₂, dependiendo de la complejidad del comando y del modelo empleado.
Diferencias entre modelos, tareas y precisión
Los resultados muestran que tanto el tipo de consulta como el modelo utilizado afectan significativamente las emisiones generadas. Preguntas simples, como temas de historia básica, generaron hasta seis veces menos emisiones que aquellas vinculadas con materias complejas, como álgebra abstracta o filosofía, que exigen procesos de razonamiento más sofisticados.
También se observaron diferencias sustanciales entre los modelos analizados. Por ejemplo, el modelo Cogito, identificado como el más preciso, generó tres veces más emisiones que otros modelos similares, aunque menos detallados.
Según TIME, si el modelo DeepSeek R1 (con 70.000 millones de parámetros) respondiera a 600.000 preguntas, las emisiones equivaldrían a las de un vuelo de ida y vuelta entre Londres y Nueva York. En cambio, el modelo Qwen 2.5 (con 72.000 millones de parámetros) podría contestar más de 1,9 millones de preguntas con emisiones equivalentes y precisión comparable.
Estos hallazgos ilustran la complejidad del impacto ambiental de la IA, que depende no solo del volumen de consultas o la exactitud de las respuestas, sino también de la eficiencia energética del sistema. TIME subraya la urgencia de encontrar un equilibrio entre rendimiento técnico y sostenibilidad ambiental.
Precisión y eficiencia energética: un equilibrio difícil
Uno de los desafíos clave identificados por los autores es la tensión entre la precisión de los modelos y su eficiencia energética, un fenómeno que denominaron “accuracy-sustainability trade-off”. Según explicó Maximilian Dauner en declaraciones recogidas por TIME, “ninguno de los modelos que mantuvo las emisiones por debajo de 500 gramos de CO₂ equivalente logró superar el 80% de precisión al responder correctamente las 1.000 preguntas”.
Este hallazgo plantea un dilema tanto para desarrolladores como para usuarios: los modelos más precisos suelen requerir más energía, mientras que aquellos más eficientes energéticamente tienden a ser menos exactos. La optimización conjunta de precisión y sostenibilidad representa un reto técnico y ético para el sector de la inteligencia artificial.
El estudio recomienda tener en cuenta el tipo de tarea y el modelo elegido para reducir la huella de carbono de la IA. Los autores abogan por una mayor transparencia sobre el costo ambiental de cada interacción, tanto en el diseño de los sistemas como en el comportamiento de los usuarios.
Conciencia y responsabilidad en el uso de la IA
Los investigadores esperan que sus hallazgos fomenten una mayor conciencia sobre el impacto ambiental de la inteligencia artificial. Según Dauner, “si los usuarios conocen el costo exacto de CO₂ de sus resultados generados por IA, como cuando se transforman casualmente en una figura de acción, podrían ser más selectivos y reflexivos sobre cuándo y cómo utilizan estas tecnologías”. Esta declaración, citada por TIME, destaca la necesidad de promover un uso más responsable de la IA en la vida cotidiana.
Los autores instan a que tanto desarrolladores como usuarios incorporen la sostenibilidad como un criterio central en la creación y uso de modelos de IA. La información recogida por TIME concluye que, ante el crecimiento acelerado del sector, mitigar su impacto ambiental debe convertirse en una prioridad.
Fuente: Infobae