Investigadores han desarrollado un nuevo método para acelerar la velocidad de procesamiento de los dispositivos electrónicos, como los smartphones o los ordenadores, sin necesidad de reemplazar los componentes existentes. Este avance podría duplicar la velocidad de procesamiento, consumiendo además menos energía.
Los dispositivos modernos están equipados con varios tipos de chips electrónicos, incluyendo la unidad central de procesamiento (CPU), la unidad de procesamiento gráfico (GPU), aceleradores de hardware para inteligencia artificial (IA) y unidades de procesamiento de señal digital para audio. Habitualmente, estos componentes procesan los datos de manera separada y secuencial, lo que puede ralentizar el procesamiento general.
Para superar este desafío, un equipo de científicos propone un marco de trabajo innovador donde las unidades de procesamiento funcionan en paralelo, en vez de una tras otra. Este método, llamado "simultáneo y heterogéneo multi-threading" (SHMT), permite que las diferentes unidades trabajen sobre la misma región del código informático al mismo tiempo, mejorando así significativamente la eficiencia del procesamiento.
A diferencia del "pipelining de software", un método que permite a diferentes componentes trabajar simultáneamente en distintas tareas, SHMT permite una distribución de tareas más flexible entre los componentes. Esto significa que diferentes unidades de procesamiento pueden abordar la misma parte del código simultáneamente, y luego avanzar a nuevas tareas una vez completada su parte.
Además de acelerar el procesamiento, SHMT resulta más eficiente en términos energéticos. Muchas tareas normalmente asignadas a componentes que consumen mucha energía, como el GPU, pueden delegarse a aceleradores de hardware menos voraces en energía.
Este enfoque se ha testeado en un sistema prototipo compuesto por una CPU multi-núcleo ARM, un GPU Nvidia y un acelerador de hardware TPU, mostrando un rendimiento casi el doble de superior y una reducción del consumo de energía del 51% en comparación con un sistema tradicional.
La adopción de este marco de software en los sistemas existentes podría no solo reducir los costos de hardware, sino también disminuir las emisiones de carbono y la demanda de agua dulce necesaria para la refrigeración de los grandes centros de datos, gracias a una gestión más eficaz y ecológica de las cargas de trabajo.
Sin embargo, los investigadores señalan que su estudio, basado en un prototipo, requiere trabajos adicionales para evaluar cómo este método puede aplicarse en contextos prácticos y qué tipos de aplicaciones podrían beneficiarse más de ello.
Fuente: arXiv