Ya empezamos a vislumbrar los planes de Intel para 2010, y más concretamente la gama alta de sus procesadores pensada para el próximo año. Si no hay ningún cambio se llamarán Intel Gulftown, teniendo como máximo exponente varios modelos de CPUs con 6 núcleos.
Dichos Gulftown serán, en cierto modo, la siguiente versión de los actuales Core i7, ya que además de permitir la ejecución de dos hilos por cada núcleo (haciendo un total de hasta 12 hilos simultáneos) también funcionarán sobre el socket LGA 1366, e incluso serán compatibles con el actual chipset X58 de los i7.
La principal diferencia es la ganancia de esos dos núcleos más, pero también nos encontraremos con que los Intel Gulftown estarán fabricados en 32 nanómetros, en vez de los 45 de los procesadores actuales. Según FudZilla tendrán un TDP de unos 130 vatios, exáctamente el mismo que el de todos los modelos actuales de i7.
Lógicamente, el término Gulftown es un nombre en clave del actual desarrollo, y es bastante probable que cuando se lancen al mercado seguramente sea bajo la denominación ‘Intel Core i7’, como nuevos modelos de éstos y sucesores de los 920, 940 y 965 Extreme que tenemos en el mercado. Al fin y al cabo serán procesadores domésticos, y la familia de los i7 apenas lleva unos pocos meses lanzada, y es bastante poco probable que Intel la retire en los próximos años.

Existe un debate muy interesante que podemos plantear: ¿Hasta qué punto es importante tener procesadores con múltiples núcleos si los actuales sistemas operativos y los programas no lo soportan? Es algo que ya hemos comentado con anterioridad, pero que pasa el tiempo y los desarrolladores de software no ponen soluciones, mientras que los fabricantes de hardware siguen mejorando sus productos.
Mi opinión es que por ahora sólo el sector profesional puede aprovecharse de los múltiples núcleos, y dentro de este sector sólo unos pocos disfrutan de aplicaciones multinúcleo, haciendo que nosotros en nuestras casas no aprovechemos una buena parte de todo el potencial de nuestros ordenadores. ¿Cuándo veremos los usuarios domésticos esas aplicaciones optimizadas? Por ahora no hay un horizonte claro en un período a medio plazo, y no parece que haya novedades de aquí a muchos, muchos años.
Ver 20 comentarios
20 comentarios
aplatanado
#10 los sistemas operativos modernos no sólo son compatibles con multinúcleo sino que están perfectamente diseñados para aprovecharlos desde hacer años. Cualquier sistema Linux corre sin despeinarse en máquinas desde un núcleo a más de 1000 (ojo, no hablo de clusters sino de máquinas de memoria compartida). El núcleo de Linux está diseñado (tanto la planificación de la CPU como las cuestiones sobre la sincronización y la expropiación de tareas) para funcionar en ese tipo de equipos sin configurar nada. Pero es que con Windows ocurre algo similar (aunque en mi opinión lo hace un poco peor). Hay versiones de Linux para 64 procesadores (o más) y esas versiones usan el mismo núcleo que el Windows de nuestros sistemas de escritorio. Así que Windows también maneja perfectamente la existencia de varios núcleos.
Desde el punto de vista de las aplicaciones la cosa es un poco diferente. Como poco si lanzamos varios programas ya estaremos aprovechando los varios núcleos. Y no debemos olvidar que en un sistema cualquier siempre hay varios servicios en marcha. Lo que si es cierto es que para que una sola aplicación aproveche toda esa potencia es necesario que se diseñe para aprovechar el paralelismo. Pero para eso ya hay recursos. Muchos entornos (como KDE en linux) y librerías (las TBB de intel) implementar algún tipo de soporte para que los programadores usen paralelismo sin casi darse cuenta. Es sólo cuestión de usarlos.
En todo caso hay que pensar que incluso aunque esos 6 procesadores se pongan al 100% es posible que nos encontremos con otras limitaciones como el cuello de botella de la memoria o del bus del sistema.
AirieFenix
Pues si, mientras los sistemas operativos así como las aplicaciones domésticas no aprovechen tener dos o mas cores funcionando, tener cuatro núcleos o más es poco menos que anecdótico.
Se supone que Snow Leopard aprovechará mejor los múltiples núcleos, pero no se, no lo creo tan revolucionario tampoco. ¿Windows 7? Creo que usará la misma gestión de CPUs que Vista, tampoco nada nuevo.
Se podrían hacer tantas cosas y tan eficientemente con cuatro núcleos funcionando sincronizados y a buen ritmo. Por ahora no nos queda más que "el soñar es gratis" y "tener cuatro núcleos sólo para mostrar a los amigos".
Pablo Espeso
Yo sólo digo que por mucho que los sistemas operativos soporten multinúcleo (no es que lo soporten, sino que simplemente 'son compatibles'), los programas no funcionan con más allá de los 2 núcleos en la gran mayoría de los casos (99%).
¿Es difícil programar para multinúcleo? Desde luego que lo es, pero la técnica den el hardware lleva ya unos pocos años muy por delante del software, y es ahí donde está la brecha actual.
Y netbookero, estos procesadores están enfocados al público doméstico avanzado, no al profesional :)
AirieFenix
Creo que ya lo repetimos varios muchas veces en los comentarios, una cosa es "ser compatible", "soportar" o ponle el nombre que quieras y otra muy diferente es aprovechar esos cores.
Si es por aprovechar, Windows XP, por ejemplo, no pueden aprovechar más de dos núcleos. Pero Linux, que siempre estuvo más optimizado que Windows, puede ver 4, 8, 64 cores y los que quieras (no se cual será el límite pero 8 "ve" seguro), pero así y todo, la enorme mayoría del software sólo aprovecha uno o dos núcleos. Que existen excepciones, si, pero son una minoría absoluta.
También es verdad que programar para multinúcleo es bastante más trabajosos que para un sólo core, pero ya llevamos un par de años con la "moda multi-núcleo", sería buen momento para que se empiecen a ver avances en ese sentido. Microsoft, por ejemplo, con lo aprendido de Vista estos años y el avance tecnológico que se sucedió en ese momento espero que se haya replanteado las capacidades multithread que tendrá su nuevo Windows 7. La verdad que no se como estará de optimizado en este sentido, pero espero que hayan avanzado algo en esa dirección.
Y lo de asignar un proceso a tal núcleo con el Administrador de tareas no es lo que estamos esperando. Hablamos de un avance a un nivel mucho más bajo, que sea transparente para el usuario y que en serio aproveche varios núcleos.
PD: aunque no tenga anda que ver, el cerebro del ser humano es usado al 100%, no en todo momento claro, pero que se usa el 100% es verdad. Otra cosa es que algunos tengan un 100% tan corto.
redphoenix
a ver si me aclaro, teniendo un core 2 duo potente, 6Gb de RAM@1333Mhz con su FSB correspondiente para esta frecuencia y XP de 64bits voy sobrado para lo que hay hoy en dia como usuario avanzado no científico?????????? respondame a esto que no estoy muy ducho en el tema y me interesa mucho!!!
Pastor Culión
Muy buen avance, pero, los precios de Intel son extremadamente caros, por eso prefiero esperar algunos meses, cuando Intel saca algo novedoso, AMD lo saca la competencia 5 veces más barato.
Intel puede que sea bueno, pero AMD no ROBA por sus productos
radl
A ver.. eso de que las aplicaciones no aprovechan el multinucleo.. depende.
Cada vez los programadores se estan poniendo mas las pilas con el tema, el problema principal es que la mayoria de las aplicaciones no van a poder aprovechar jamas optimizaciones para mas de 16 nucleos.
Solo las aplicaciones de tipo cientifico que puedan expresar sus calculos en forma de integral, pueden sacar beneficio de mas de 16 nucleos para realizar una operacion.
(Otro tema es que la aplicacion sea capaz de crear diferentes subprocesos totalmente independientes entre si, y por lo tanto aprovechar mas nucleos)
He aqui el verdadero problema, a partir de 32 - 64 nucleos, ni con aplicaciones super optimizadas se podra sacar el 100%.
the_gringo
Con los procesadores multinucleo va a pasar lo mismo que en la vida real con nuestros cerebros, lo digo por eso de que apenas utilizamos el 30% de nuestra capacidad total, o era menos aún todavía ?
viator
Dos cosas: - La gente aún cree lo de "Solo usamos el X% de nuestro cerebro" - Y los sistemas operativos y los programas SÍ que los soportan, otra cosa es que los usen (Algunos sí, otros no)
escuerzomagico
A parte de mas nucleos los Mhz por nucleo que seran similares a los i7? esto de los nucleos me aprece a mi que es tan absurdo como la carrera de los megapixel.
Spitfire
#3 The Gringo: Vamos a ver, el 100% del cerebro está siempre funcionando; lo que pasa es que en actividad normal, hay zonas bastante más usadas que otras, pero nunca una región cerebral está inactiva.
sergi7ball
Los sistemas operativos y programas si soportan el multicore, otra cosa es que lo aprovechen o no. Tema aparte pararelizar programas aplicaciones etc.. es muy costoso, el mayor problema que tiene es la sincronización entre diversos procesos que se ejecutan en diferents cores o threads. No es tan fàcil avanzar a nivel de programación.
Es cierto que hoy en dia con el software que tenemos con dos cores tenemos más que suficiente.
netbookero
The gringo: El humano no llega a usar ni el 1% del cerebro en toda su vida, pero creo que estos procesadores serán para desarrollo cintifico y tecnologico, tales como calculos complejos, proyectos arquitectonicos; que se necesitan gran rapidez y potencia r&c esta equivocado,si; el cerebro esta activo pero en total no se usa el 1 %; pero en cuanto a el artículo estos procesadores no servirian para ejecutar crysis o adobe photoshop cs4, es para los profesionales, aunque esta es la primera piedra para ya deshacernos de esos obsoletos de 32 bits, ya que ahora los precios de los sistemas de 64 bits se abaratarán, veremos cuanto se tarda AMD en crear la competencia que todos esperamos
Litbea
¿Y si en vez de pensar en UNA aplicación optimizada para múltiples núcleos pensamos en VARIAS aplicaciones concurrentes? ¿O es que nadie se ha dado cuenta al pasar a dos/tres/cuatro núcleos (y ya desde el HT) que se puede (y me refiero al usuario) asociar un proceso a una CPU para descargar el resto?
Administrador de tareas --> Botón derecho sobre un proceso --> Establecer afinidad
Yevon
pues anda que no se nota las aplicaciones optimizadas para 64 bits y varios nucleos... el conversor de video que te viene con ati es impresionante, en 1 minuto te recodifica un video usando los 4 nucelos al tope y los de la grafica tb. Microsoft no se a que espera a pasarse ya a los 64 bits y multinucleo... debrian haberlo hecho ya cuando obligaron a cambiarte de grafica. O se hace todo o nada... pq para que luego pase como la tdt q te vas a tener q comprar 3 descodificadores...Si vista o widnows 7 ya se tragan una giga de ram y los juegos piden tranquilamente 2,5 gb adicionales siendo el tope de 3,2... nose yo, pero mis cuentas dicen que antes llegarán al tope que cuando obliguen los 64... Lo perfecto seria poder cargar el sistema operativo integramente en memoria, seria muy muy fluido. Y lo de varios nucelos no lo notareis vosotros pq desde luego yo, entes era impensable estar transcodificando un video, pasando un antivirus, msn, viendo un video, grabando un dvd todo a la vez.
El problema de la programación es que la mayoria de programas son simples y tienen un orden por lo que muchisimas veces no pueddes calcular cosas sin haber calculado lo anterior, vamos que no son muy particionables. Pero para video y juegos yo creo que podrian hacer muchisimo ahi...
netbookero
Whiskito: De por si lo que dice las aplicaciones que aqui mencionan no usan ni la mitad del procesador, ¿para que quiers 6 nucleos? claro que estos procesadores son los que usan en las workstations, porque los programas que se usan usan mejor el potencial de ellos como ligtwave, filtros avanzados, diseños de arquitectura, que requieren miles de megabytes de procesamiento, nosotros con un core 2 quad o un core 2 duo tenemos mas que suficiente, solo necesitamos mas potencia para que las aplicaciones no se ralentizen, por decir
vodor
Si ejecutas un programa en cada core para empezar tendrás problemas con la cache, es decir te quedaras sin cache cada 2x3 y perderás mucho tiempo en accesos a memoria.
Si estamos hablando de 6 cores o incluso mas según esa filosofía serian 6 procesos (suponiendo que se implementa exactamente lo indicado, un programa por core y no uno por hilo, donde ya sería exagerado el numero de fallos de cache)
El sistema funcionaria my bien en problemas muy concretos, y sería un desastre en otros. Igual que sucede si quieres ejecutar el mismo programa en varios cores, hay programas que se pueden fragmentar de un modo razonablemente fácil y otros es muy complejo dividirlos, o incluso se logran resultados peores.
Quizás la solución pase por integrar varias soluciones, y que cada programa sugiera varios mecanismos de ejecución y el SSOO decida cual usar… ahora que no veo a muchos programadores molestándose en eso para programas sencillos… quizás juegos que requieran ordenadores demasiado potentes…
Andrei
Como se nota que solo usáis el ordenador para publicar en vuestro blog, leer otros blogs, usar el mejenjer, navegar, ver películas y escuchar música.
juan manuel
y le dara talla al porwer7 http://es.appleweblog.com/2009/01/power7-y-el-powe...
moterocompuesto
osea q si tienen la misma arquitectura kn la placa 1366 y compatibilidad kn el x58 igual en una año a cambiar de procesador... interesante pero muyyyy caro