Universidad Nacional de Singapur desarrolla arquitectura que reduce a menos de la mitad el consumo energético de la IA
Investigadores de la Universidad Nacional de Singapur han creado una arquitectura de computación en memoria (CIM) que promete transformar el futuro de la inteligencia artificial al reducir drásticamente su consumo energético. El sistema, que combina procesamiento y almacenamiento de datos en un mismo espacio físico, permite ejecutar modelos de IA a gran velocidad mientras consume menos de la mitad de la energía requerida por los métodos tradicionales, según informó el portal especializado Tech Xplore.
La innovación se basa en una matriz de memristores de diseleniuro de hafnio, un avance técnico que responde a la creciente demanda de eficiencia en los procesos de IA. El profesor Ang Kah Wee, del Departamento de Ingeniería Eléctrica y Computación de la universidad, lidera el desarrollo de esta tecnología que ataca directamente uno de los mayores cuellos de botella de la computación actual: la separación física entre procesamiento y almacenamiento que impone la arquitectura convencional de los ordenadores.
El contexto que rodea este desarrollo es crítico: el entrenamiento de un modelo de lenguaje grande como GPT-3 puede costar más de USD 10 millones y consumir más de 700.000 litros de agua. Con la expansión acelerada de la inteligencia artificial en industrias y servicios, la eficiencia energética se ha convertido en un factor determinante para la viabilidad económica y ambiental de la tecnología. Esta arquitectura CIM podría marcar un punto de inflexión en la escalabilidad de la IA, ofreciendo una alternativa a las limitaciones de infraestructura que actualmente frenan su adopción masiva.