En 2015 AMD presumía de gráficas con memoria HBM, una teórica revolución en rendimiento y prestaciones que no obstante acabó en un segundo plano por el auge de unas memorias GDDR6 que han acabado dominando el mercado por su mejor relación precio/prestaciones.
No todo está perdido para la tecnología HBM, no obstante. Samsung acaba de presentar sus nuevos chips HBM-PIM (Processin-In-Memory), que destacan por su tecnología HBM2 pero sobre todo por integrar un sistema de inteligencia artificial que los hace más rápidos y eficientes que nunca.
Memorias que piensan por sí mismas (un poco)
Estos chips de memoria cuentan con un motor de inteligencia artificial que se encarga de gestionar muchas de las operaciones que se realizan en ellos, lo que ayuda a que al mover datos desde memoria al procesador o viceversa se consuma menos energía y se ganen enteros en las transferencias.
Según Samsung, al aplicar este sistema a las memorias HBM2 Aquablot, es posible doblar el rendimiento, pero además reduciendo el consumo en más de un 70%, unas afirmaciones que desde luego son llamativas y podrían volver a impulsar el uso de este tipo de tecnología de forma masiva.
Estas nuevas memorias no necesitan además de cambios software o hardware, y ya están en fase de pruebas para comenzar a estar disponibles en el mercado probablemente en la segunda mitad del año.
Cada banco de memoria tiene una pequeña Programmable Computing Unit (PCU) que funciona a 300 MHz, algo que tiene una desventaja: no hay tanto sitio para la memoria como tal, y cada "die" de memoria tiene la mitad de capacidad (4 Gb) respecto a las "dies" convencionales HBM2 de 8 Gbits.Para equilibrar esa situación, en Samsung en realidad combinan dies con PCU con otras sin PCU para lograr chips de 6 Gbits.
De momento estas memorias no estarán disponibles para tarjetas gráficas como las que AMD lanzó hace años, y la idea es la de ofrecer estos módulos en centros de datos y sistemas de computación de alto rendimiento (HPC).
Más información | Samsung
Ver 5 comentarios