En Xataka hace tiempo que recomendamos sin tapujos la apuesta por las unidades de almacenamiento de estado sólido. Los SSD son mucho más rápidos, más eficientes, y como casi toda nueva tecnología que se precie, más molones. Pero es que además su coste, que era el único punto en su contra, se está reduciendo a marchas forzadas.
Tanto que el dilema en la compra de una unidad SSD frente a un disco duro tradicional es cada vez más relevante. Hasta no hace mucho si querías mucho almacenamiento tenías que irte a discos duros tradicionales, y si querías velocidad te comprabas un SSD. Pero ahora esa elección es más difícil que nunca: el coste por gigabyte, ese parámetro que suele postularse como base de la elección de compra, está cada vez más igualado.
La época dorada de los discos duros (pasó)
Los discos duros fueron objetos de lujo durante muchos años. Los disquettes fueron los principales aliados del usuario final, pero en los 80 comenzaron a desembarcar los primeros PCs con discos duros. En 1986 IBM presentaba una iteración de su IBM Personal Computer/AT (Modelo 5170) en el que destacaba un disco duro de 30 MB. El precio de aquella tecnología se había reducido sensiblemente desde finales de los 70, y ya era casi "asumible" acceder a equipos con dispositivos almacenamiento masivo. Si es que a eso se le podía llamar masivo.
La introducción de esa tecnología fue crucial para el desarrollo de la informática: los discos duros ofrecían nuevas capacidades a los PCs, y pronto se convirtieron en uno de los parámetros clave para elegir qué ordenador comprar. Tener más disco duro era importante, porque ya se sabe: daba (y da) igual la capacidad disponible que tengas: nunca será suficiente.
En almacenamiento masivo da igual la capacidad disponible que tengas: nunca será suficiente.
Los precios bajaban y la tecnología de estas unidades mejoraba. A las mejoras en densidad de almacenamiento se sumaban mejoras en la velocidad de rotación de los platos, la combinación de varios de ellos para aumentar la capacidad o la introducción de mecanismos que permitían ofrecer mayor eficiencia en estas unidades. O la llegada de formatos más adecuados para PCs de pequeño formato o portátiles (2,5 y 1,8 pulgadas), y por supuesto de estándares de conexión que sacaban mayor partido de esas conexiones, como la tecnología Serial ATA que llegaría en 2003.
Los megabytes pronto se quedarían cortos para medir la capacidad de esas unidades, que no tardaron mucho en hacer que aprendiéramos nueva terminología en capacidades de almacenamiento. Los gigabytes también se quedarían cortos, y pronto lo habitual fue hablar de discos duros con capacidades de varios terabytes. Y de técnicas como Perpendicular Magnetic Recorder o Shingled Magnetic Recording que ya tienen sucesoras y que parece que lograrán alargar la época dorada de los discos duros.
Pero esa época dorada pasó. Lo hizo en cuando descubrimos los SSD.
Unidades SSDs: endemoniadamente rápidas, y endemoniadamente caras (hasta no hace mucho)
Las grandes de la tecnología empezaron a flirtear con la tecnología SSD a principios de los 90. SanDisk crearía una unidad de 20 MB que costaba 1.000 dólares en 1991, y otras comenzaron a intuir que aquello tenía buena pinta. Sin embargo los avances llegarían con cuentagotas hasta que un protagonista sorpresa demostró que aquello era revolucionario.
Ese protagonista fue el portátil OLPC XO, el equipo que se convirtió en artífice involuntario de la creación de uno de los segmentos del mercado de la tecnología con la vida más corta de la historia. Los netbooks eran de repente la salvación a nuestros problemas, y como ocurría con el portátil educativo del proyecto One Laptop Per Child, la mayoría incluían una pequeña unidad SSD que era suficiente en capacidad pero sobre todo rápida y realmente eficiente, algo crítico para estos modestos equipos portátiles.
Aquel sería el detonante de una tendencia que dejaría atrás a los netbooks. Las unidades SSD para portátiles comenzarían a hacer su aparición en algunos portátiles, y de hecho Apple adoptó esta tecnología como pilar fundamental de la segunda generación de sus MacBook Air que aparecería en 2010. Esa validación de la empresa de Cupertino dejó claro que las unidades SSD tenían mucho recorrido, y los avances se produjeron de forma frenética.
Las unidades SSD pronto dejaron de ser un objeto más propio de portátiles para convertirse también en componentes ideales para renovar o actualizar cualquier equipo de sobremesa. Sin embargo tenían un inconveniente: el coste por gigabyte era muy superior al de los discos duros tradicionales, así que en muchos casos lo ideal era (y sigue siendo) combinar una unidad SSD con un disco duro tradicional. El sistema operativo, las aplicaciones y algunos datos importantes iban en esa unidad, y se usaba el disco duro para datos a los que accedíamos de forma algo menos frecuente y para contenidos de gran tamaño.
Sin embargo, la enorme popularidad de estas unidades ha hecho que la evolución de su tecnología y prestaciones se haya acelerado. En los últimos tiempos hemos visto como Intel y Micron lanzaban su propia tecnología de chips 3D NAND, que compite con la V-NAND de Samsung o la alternativa creada por Toshiba.
Esos avances permiten precisamente poner coto a las dos principales limitaciones de las unidades SSD. SanDisk y Tohisba acaban de anunciar por ejemplo el lanzamiento del primer chip NAND de 48 capas con 256 GB de capacidad, algo que las citadas Intel y Micron habían conseguido con 32 capas. La ventaja, no obstante es para Toshiba y Sandisk, que con ese aumento en número de capas logran que el chip sea aún más pequeño.
Lo importante de esas mejoras tecnológicas es que esos chips de unos y otros serán responsables de que el año que viene tengamos unidades SSD con más capacidad y más baratas: el coste por gigabyte seguirá viéndose reducido una y otra vez, y es ahí donde queríamos llegar. Si las cosas siguen así, no tardaremos demasiado en poder descartar los discos duros tradicionales al tener en cuenta ese factor.
Así ha sido la evolución del coste por gigabyte
Con las nuevas tecnologías de fabricación que "apilan" capas (de ahí el concepto de chips 3D NAND) y la reducción en la escala de integración -la barrera de los 20 nm ya ha sido superada- es evidente que más y más fabricantes podrán sumarse a una oferta que será difícil de resistir. A ello también contribuyen los nuevos formatos -M.2 y mSATA- y desde luego la evolución en las controladoras, ingrediente secreto de cada fabricante en sus SSD, y todo ello combinado ha hecho que los SSD evolucionen mucho más rápido y mejor que los discos duros tradicionales en los últimos tiempos.
Eso se nota también en el coste por gigabyte del que venimos hablando durante todo el artículo. En Wikibon publicaban hace un año un estudio sobre la evolución de las tecnologías de almacenamiento masivo, y en él aparecía una gráfica clarificadora sobre el futuro de esa evolución del coste por terabyte (y no por gigabyte, pero no importa demasiado). El enfrentamiento entre las tecnologías más populares -cintas, discos duros y unidades SSD- dejaba en evidencia que esa factor se equiparará a medio plazo entre los SSD y los HDD. De hecho, se prevé que 2023 sea el año en el que el coste por terabyte se iguale en ambas tecnologías.
No importa que el coste por terabyte se haya reducido en unidades de disco duro magnéticas: lo ha hecho y lo agradecemos, desde luego -cuidado, porque no todo es capacidad de almacenamiento sin más, tanto aquí como en SSD- pero aún así el avance de las unidades de estado sólido es aún más impresionante, y todo apunta a que lo será aún más en la próxima década.
Lo confirman también los datos de Hblok, donde precisamente se dedican a revisar esa evolución de los precios de las memorias para ordenadores y los sistemas de almacenamiento masivo para ofrecernos una visión global de este mercado. La gráfica (tenéis la imagen original aquí, fijaos en como las inundaciones de 2011 impactaron en el precio de los discos duros, que ellos llaman "Small drives") es reveladora, y aunque parece claro que los discos duros convencionales siguen siendo mejor opción en coste por gigabyte, esa tendencia parece ir convergiendo.
Los discos duros lo tienen crudo: a no ser que puedan seguir esgrimiendo el crecimiento en capacidad como argumento fundamental -todo indica que por ahí van los tiros- es evidente que las unidades de estado sólido parecen el presente y el futuro del almacenamiento masivo para la mayoría de los usuarios finales y también en muchos casos para las empresas.
En Xataka | Comprar un SSD: qué debo tener en cuenta
Ver todos los comentarios en https://www.xataka.com
VER 78 Comentarios