Intel ha mostrado recientemente uno de sus últimos productos, al que ha denominado Knights Ferry. Es por ahora un prototipo, con lo que aún no lo podremos ver en el mercado. Sin embargo, nos muestra por dónde están yendo los fabricantes.
Empezaremos con las características técnicas de esta criatura. Con una apariencia de tarjeta gráfica (es decir, se conecta al slot PCI-Express de la placa base), Knights Ferry contiene 32 núcleos a 1.2 GHz., cada uno de los cuales es capaz de emular cuatro hilos de ejecución. En total son 128 hilos los que son visibles por el sistema operativo, todo en un formato muy reducido. Es posible que también permitan instalar varios de estos módulos en paralelo, aunque los detalles más técnicos no se han hecho públicos.
Esta bestia sirve, cómo no, para la computación masiva de datos, y más concretamente para aplicaciones y sistemas operativos que permitan aprovechar tantos núcleos simultáneamente. Es algo que se lleva moviendo desde hace varios años con productos como NVidia Tesla, y que en un sector muy específico del mercado se utiliza y mucho. Por ejemplo, en el cálculo de ciertos datos científicos o en el campo del renderizado a gran escala.
Knights Ferry es, como ya hemos dicho, un producto que se encuentra en un estado de continuo estudio y evolución, actualmente un simple prototipo. Su fecha de lanzamiento podría situarse a finales del 2010 para los primeros productos, con una fabricación más estable a lo largo de los años sucesivos.
Varios núcleos, ese es el camino a seguir
El común denominador que desde años llevan siguiendo los fabricantes es el de estudiar el campo del procesamiento en paralelo. Ya hace tiempo que disponemos de microprocesadores de varios núcleos, y los dos grandes fabricantes (Intel y AMD) siguen esta evolución.

Este tipo de procesadores ofrecen una mayor potencia de cálculo al integrar varios núcleos de proceso. Aunque no es exactamente la multiplicación (es decir, un procesador de dos núcleos no es el doble de rápido que uno de un núcleo), la mejora es sustancial, más aún si las aplicaciones están programadas y preparadas para el paralelismo.
Y es precisamente este campo el que debe mejorar, y mucho. Gran cantidad de las aplicaciones de corte profesional (sobretodo las que se programan específicamente para ser ejecutadas sobre núcleos de tipo Tesla, o sobre granjas de datos) se desarrollan utilizando técnicas que permiten dividir los datos para ser ejecutados de forma paralela. El software doméstico que todos manejamos no lo está, pero en un futuro tendrá que adaptarse o el esfuerzo de las empresas de hardware habrá sido en vano.
El cómo y el cuándo es algo incierto. Hay decenas de técnicas, pero el paralelismo es un campo muy complejo y avanzado que será mejor tomar con tiempo y calma. Una vez más se vuelve a cumplir eso de que lo que entra en el mercado profesional termina llegando a los usuarios domésticos. O terminará llegando, vamos.
Vía | NordicHardware.
Ver 87 comentarios
87 comentarios
kallaz
a nivel consumidor final, entiendase el 99% de la población (o algo muy cercano a ése número), de que sirve tener 64 núcleos o 2500 si no hay aplicaciones del mundo real que usen mas de 4 núcleos? aún los juegos mas avanzados para PC no pueden hacer uso de 6 núcleos, es mas, el cell processor de la PS3 que cuenta con 9 núcleos cuenta con un grupo de juegos muy limitado (que son exclusivos de la consola), que usan en algun momento los 9 nucleos al unísono, a lo que voy es que simplemente no tenemos el software para explotar el hardware, entonces para que necesitarlo? por novedad?
la necesidad equipara al deseo?
salu2
krollian
En todo caso hay una norma que siempre se cumple:
Un máquina siempre será tan rápida como el más lento de sus componentes.
De ahí la importancia de un ordenador bien equilibrado. Un SO capaz y potente con poca RAM es ineficaz. Una CPU poderosa en una placa de calidad mediocre, dará como resultado una computadora mediocre. Un coche con muchos caballos y frenos débiles es candidato a un impacto seguro.
Yo creo que la carrera entre soft y hard es eterna. En cuanto sale una CPU potente, el SO que corre sobre ella requiere más prestaciones. Las páginas web se enriquecen cada vez más, Photoshop tarda más en abrir, etc.
Y es que un handicap a tener muy en cuenta son las aplicaciones clásicas que tienen código antiguo y tardan años en adaptarse a los nuevos SOs y hardware.
Apple decidió plantarse con Mac OS 10.6 y depurar código y hacerlo más rápido y estable. GCD y OpenCL son muestras de los avances de Mac OS en este campo. Y a día de hoy aplicaciones como Pixelmator ya aprovechan estas nuevas tecnologías:
Thanks to these improvements, the overall performance of Pixelmator increased up to 40%; the launch time is now twice as fast and the ability to paint with Pixelmator is four times faster than it was in the previous version. Users will notice the overall performance improvements in nearly every function of the application.
http://www.pixelmator.com/weblog/2010/07/13/pixelmator-team-releases-pixelmator-1-6-nucleus
mikeadan
Nos guste o no, el mundo de la computación va en esta dirección, cálculos bestiales basados en multinúcleos que harán que la tecnología que les rodea se adapte a ellos. Se reducirá el tamaño y en poco más espacio de lo que ahora ocupa un procesador, tendremos centenares de núcleos con velocidad y potencia sólo imaginables en nuestros sueños.
Ya ha salido el tema del aprovechamiento y el software. Todo evoluciona, y sino recordad aquéllos tiempos en los que 64kb de ram deberían ser suficientes para todos. Lo que ahora es sólo un plan, teoría, sueños, intenciones, se convertirá (si todo va bien) en realidad. Es lo fascinante de la tecnología. Y aquéllos a los que cuestionáis la decencia de los fabricantes al ofrecer productos 'según les interesa y según va el mercado', puede que estéis incurriendo en el mismo error que repetía una y otra vez mi padre: '¿por qué demonios no sacarían hace 20 años este tractor y no el que yo compré por el mismo precio?'
Un saludo.
magus101
38.4 Ghz triplica a los prosesadores actuales y segun por lo que dice se podran instalar varios. Sigo pensando que los fabricantes solo nos van dando los productos segun vean las ventas. Primero dan de un core luego dual-core despues quad-core y ahora hexa-core. Sabiendo que ellos ya han desarrollado prosesadores de 64 nucleos.
catalania
¿Adaptar programas de consumo doméstico al paralelismo? sinceramente no me veo un reproductor de música aprovechando eso, ¿qué aplicaciones domésticas podrían aprovecharlo? porque los juegos tampoco, ellos se centran en las GPU, y aun no son ni de doble núcleo salvo las 2 reinas de AMD y Nvidia.
Left My Dead
Esto parece mas una 5970 Toxic de 4gb que un super procesador(es), 32 núcleos;los de la NASA ya pideron 100,y ya me están haciendo enojar el core i5 que tengo desde diciembre se va quedando atrás, mi proximo CPU esrá ATI/AMD XD
michel8585
La idea es bastante interesante, pero ,me intriga bastante el tema del pci-express.
Aun así es un campo ya usado profesionalmente sino mirar los sparc T2+, ademas estos procesadores son abiertos, sus especificaciones fueron liberadas por lo que no me extrañaría que intel ser haya basado (Copiado) en ellos. Aunque son un poco mas bestias 8 cores*8 hilos = 64 hilos.
El problema vendrá con los S.O, aunque linux integra bastante bien este tipo de arquitecturas, aunque tendría que mejorar, el problema es como lo integrara windows, sobre todo la gente que siga emperrada con el XP.
kallaz
es obvio y claro que lo que se desarrolla a nivel profesional, militar, etc. termina con alguna aplicacion en el ambito doméstico, creo que no hace falta mencionarlo, y sobre todo que el punto del articulo es sobre un prototipo; mi comentario es mas enfocado a que es una novedad de prototipo mas no el prototipo de novedad; esto me recuerda al IDC de hace unos 3 o 4 años que hablaban de procesadores mosntruosos de 64 o 128 nucleos, pero que aun y si fuese posible construir eso, donde conectarlo? con que lo usarian, me explico? al final la realidad de las cosas es que ninguna compañia va con intel y le ordena su archi mega super computadora de un millon de procesadores; van con intel o con quien sea para los procesadores, juntan un grupo de expertos de x,y, z universidades y otro grupo de expertos freelance para el desarrollo del software que usará el hardware, todo a la medida, como los proyectos de el ejercito de USA (vease el ultimo trato de DARPA con nVidia), el resto con servidores dell y procesadores xenon pues ese resto somos los simples mortales que pgamos un precio premium por hardware al que nunca le sacaremos el 100% de la capacidad, gracias a un software que esta diseñado para correr con sistemas mono-núcleo hasta sistemas con 8 o 12 nucleos.
mico12
Patada en los cojones a quien dudamos de Intel y elegimos a Nvidia y ATI.
mandrago
Yo solo digo una cosa..el 23 es mi cumpleaños-
QUE ALGUIEN LLAME A INTEL!!!
sufianes
Vale, me he leido el artículo un par de veces y aún no he entendido qué es o para que sirve ese aparato. supongo que eso descarta que yo sea un geek (cosa que tampoco se lo que es xD). En claro sólo he sacado que en un bicharraco a la hora de procesar lo que sea que procese
lendark
"actualmente un simple prototipo. Su fecha de lanzamiento podría situarse a finales del 2010 para los primeros productos"
si es un simple prototipo no creo que en tres meses vayan a empezar a venderlo, aunque quien sabe......
cancamo
Bueno ¿teóricamente no es el sistema operativo el que se encarga de direccionar los hilos a los diferentes núcleos?
Es decir, si tenemos un procesador de 6 núcleos(y un sistema operativo que sepa usarlos) podremos tener corriendo6 procesos relativamente "gordos" a las vez ¿no?
Aunque en la realidad no necesitemos correr 32 programas a la vez, si tenemos 32 núcleos podremos estar corriendo 32 programas diferentes aunque ninguno de ellos esté preparado para usar varios núcleos en sus acciones ¿no es esta la teoría?
¿Donde está el límite de núcleos que puede dirigir Windows/Mac? ¿Influyen otros factores como el tiempo de acceso a los discos duros para poder correr tantos programas cada uno en un núcleo?
lalogarcimo
lol, un bicho así te arranca el crysis sin sentirlo xD
danitool
Genial, ya tenemos el hardware, pero como siempre aun nos falta el software que lo aproveche, y unos buenos drivers. Recuerdo que el software aun está parcialmente anclado en los 32 bits como ejemplo.
Esto es parecido a CUDA no? porque es que tampoco hay mucho software para CUDA. Diría que tampoco se aprovecha bien el multihilo con los procesadores actuales. Nos lo venderán igualmente y dentro de diez años tendrá un buen aprovechamiento quien sabe...
Pakirri
Necesito una respuesta!!!... Tengo una PC de escritorio cuya tarjeta madre con suerte soporta un procesador Dual Core (como tope), con un puerto PCI Express libre... Podria ponerle un aparatillo de estos y dejar que vuele?
P.D.: Entiendo perfectamente que es un prototipo y etcéteras...
gperales
Hasta donde yo se esto es lo que antes se conocía como Intel Larrabee ( que alguien me corrija si me equivoco ) . Este verano estuve en un cursillo sobre CUDA donde explicaban un poco por encima ésta arquitectura, que en un principio iba a ser una tarjeta gráfica a la vez que una tarjeta de cálculo, pero parece ser que se complicó la cosa con los drivers ( y alguna cosilla hardware ) y al final solo van a sacar la tarjeta para cómputo HPC, según pude entender cada núcleo de la tarjeta sería parecidos a los últimos procesadores pentium IV y que ejecutarían instrucciones X86, aunque no se podría cargar el sistema operativo desde la tarjeta. La principal diferencia es que la Larrabee sería del paradigma de la programación paralela a nivel de tarea, mientras que las Tesla de Nvidia son paralelas a nivel de instrucción. En pocas palabras, Larrabee sería bastante parecido a un procesador de 32 núcleos de los de hoy día, aunque serían núcleos más sencillitos que los que llevan ahora mismo los i7, y sin poder cargar ahí el sistema operativo :-P.
naveca
holy shit... en que mundo acabaremos un dia de estos?
darkyevon
Yo creo que que se están dirigiendo demasiado hacia el paralelismo, lo que tendrian que hacer es investigar mejores materiales como máxima prioridad para aumentar la frecuencia. Hoy en día muy poca cosa aprovecha el multinucleo, solo aplicaciones científicas. De que sirve tener 6 nucleos si si tienes tantos programas que lo aprovechen saturarán al disco duro, otro pedazo cuello de botella desde hace siglos.
Pepeeeeeee
(Sarcasmo on) Se han viciaos con el CRISYS (Sarcasmo off)