La eficiencia de los nuevos modelos de IA podría frenar la demanda energética que impulsa el crecimiento nuclear

La eficiencia de los nuevos modelos de IA podría frenar la demanda energética que impulsa el crecimiento nuclear

La startup china de inteligencia artificial DeepSeek sorprendió con el lanzamiento de su modelo de IA R1, que parece competir con los modelos líderes de Google y OpenAI, a pesar de haber utilizado una cantidad relativamente moderada de recursos (2.048 GPUs Nvidia H800) para entrenarlo en solo dos meses.

Esta eficiencia ha generado dudas entre expertos e inversores sobre la necesidad de los enormes gastos de hardware previamente previstos para entrenar IA, lo que podría modificar la demanda de centros de datos y la energía requerida para alimentarlos.

Se proyecta que los centros de datos consumirán hasta el 12% de toda la electricidad de Estados Unidos para 2027, más de tres veces su cuota en 2023. Ante este panorama, las empresas tecnológicas han acelerado sus esfuerzos para asegurar fuentes de energía y han invertido miles de millones de dólares en soluciones energéticas.

Si los avances en la eficiencia de la IA continúan, como DeepSeek, las necesidades energéticas podrían no ser tan grandes como se anticipaba, lo que podría reducir la presión sobre las infraestructuras energéticas y alterar las inversiones en energía nuclear.

Ver noticia en: TechCrunch

Entra a tu cuenta