Resulta sorprendente comprobar cómo poner en órbita naves espaciales como Orión -que será clave para la llegada del hombre a Marte- implica un esfuerzo tecnológico increíble, aunque no siempre se haga uso de los últimos avances en todo lo que rodea a este proyecto.
Es el caso del procesador que gobierna el ordenador de vuelo de la nave Orión, que se basa en una consola de Honeywell originalmente destinada a aviones comerciales de Boeing. El procesador de esa consola no es otro que el IBM PowerPC 750FX, un microprocesador que se presentó en el mercado en 2002. Ahí es nada.
Un iBook G3 como "piloto espacial"
Esa longevidad no debe extrañarnos, porque lo importante en las misiones espaciales es la fiabilidad de estas soluciones, y no su velocidad. Los componentes deben ser evaluados una y otra vez, y luego reforzados para contrarrestar cualquier posible contratiempo. Y eso es precisamente lo que proporcionan estos procesadores, que de hecho fueron utilizados en algunas versiones de los iBook G3 que se presentaron en 2003, e incluso en algunos iMacs de aquella era también.

Los PowerPC 750FX que gobiernan la nave Orión corren a 900 MHz y tienen un bus a 166 MHz, 512 KB de caché de nivel 2 y están fabricados en tecnología de integración de 130 nm. Esos números se quedan lógicamente muy atrás si tenemos en cuenta que hoy en día Intel ya fabrica micros en escala de 14 nanómetros y que básicamente el 750FX dispone de una potencia similar a la que tienen los chips ARM de los Samsung Galaxy SIII.
Eso sí: en el caso de la nave Orión el procesador se ha reforzado con placas más gruesas, mecanismos de protección a las vibraciones, o protección especial frente a la radiación. Aun si esa protección o cualquier otro subsistema fallase, la nave dispone no de un ordenador auxiliar más, sino de dos.
La redundancia en el sistema va más allá, y en la NASA integran dos chips PowerPC 750FX que trabajan de forma independiente, y que se evalúan mutuamente. Si alguno de los dos encuentra un fallo en el otro y las salidas esperadas no coinciden, el sistema se detiene y se reinicia, teniendo de respaldo a los otros dos ordenadores para reducir al mínimo la probabilidad de problemas en estos sistemas.
Vía | Geek
En Xataka | La NASA no se rinde: quiere poner a un hombre en marte en la década de 2030
Ver 28 comentarios
28 comentarios
edecon
Uno de los motivos (entre otros muchos), es que el uso de transitores más grandes (130 nm) frente a transistores actuales (14 nm) tiene mucho que ver con su capacidad de aguante frente a la radiación cosmica. Los actuales son más rapidos y más pequeños, pero tambíen más delicados para poder usarlos en ambientes tan hostiles como el espacio exterior. Y en este caso prima la fiabilidad frente a la rapidez de cálculo. En la ISS aún existen procesadores 386. Al trabajar en niveles lógicos de 5v la diferencia en voltaje entre 0 y 1 es mucho mayor que la que existe en nuestro super potente movil más susceptibles a ruidos externos
farnos
La gracia de montar un procesador como este es que se puede estar seguro de que se hayan probado "todos" los estados posibles del procesador sin que hayan ocurrido bugs (como por ejemplo el caso de los Pentium que les fallaba la unidad de coma flotante). Los procesadores ahora mismo no pueden simularse al 100% antes de fabricarse y no puedes arriesgarte a que falle a millones de kilometros de la tierra con lo que te ha costado llevarlo hasta allí. El IBM PowerPC 750FX se considera completamente robusto debido a sus años de servicio sin fallos. No hay riesgo admisible en misiones espaciales que valen gritones de dolares.
c1093429
Como en muchas otras cosas, extrapolar nos siempre es fácil, no se puede comparar el mercado de consumo al mercado espacial. Los requisitos para procesadores espaciales suelen comenzar con protección contra radiación, fuera de nuestra atmosfera las cosas son un poco diferentes. Continúan con el uso de tecnologías que ya se hayan probado en el espacio, con lo que poner lo último de lo último no vale. Puedes añadir además, que ese procesador va a servir para correr un software que tiene que funcionar si o si, con lo que probar cosas nuevas, mejor que no. Probar que la ejecución de tu software no entra en condiciones extrañas con el uso de varios cores o esa nueva feature que tiene que el procesador no siempre es demostrable, resultado, si no estás seguro, no se usa.
Si os parecen graciosos los procesadores americanos en el espacio, no os intereséis por los europeos, ERC32 y LEON2, hay que sudar sangre para correr tu software con 4MB de RAM a 25MHz
dark_god
Desde luego la fiabilidad y robustez es esencial. Un chip RISC es mucho más sencillo que un CISC, lo que deja a intel y AMD fuera de opciones. De lo que queda PPC es la solución más viable, ya que se usaron masivamente en mercados de consumo domestico, como en supercomputadores bestiales soportando mucho calor y mucha carga largos años. Además creo que en una nave no hace falta mucha potencia pura y dura, no hay que renderizar gráficos, ni correr el windows vista, tiene que vigilar los sensores y actuar conforme.
avenger
Buenos días.
Poco puedo agregar a los acertados comentarios farnos y c1093429 que dan en el clavo.
Añadir que unos de los parámetros por los cuales se rigen las agencias es la fiabilidad.
Para un usuario doméstico es suficiente el test de pruebas del fabricante durante el proceso de diseño y fabricación.
Pero otro parámetro no muy conocido es la 'fiabilidad militar' que es muchísimo más elevada y en eso entran sacudidas, radiaciones, calor o frío extremos por poner algunos ejemplos.
La fiabilidad de una circuitería por ejemplo el tanque M1 Abrams (que todos conocemos) seguro que tiene en cuenta todos esos factores y muchos más.
Pues imaginad para una sonda espacial. Por eso confían en diseños ya probados, no serán los más eficientes ni potentes sino los más fiables. Por eso para cuando una CPU está desechada para el mercado doméstico, el fabricante (Intel, AMD, Ti, Cyrix...) la sigue fabricando varios años más para otras aplicaciones (industriales, militares, civiles).
En todo caso yaa se encargaran ellos de optimizar de verdad no como los de los ports de los juegos de PS3/4, Xbox 360/ONE a PC.
Añado ahora que me ha venido a la mente que muchas veces puedes comprar en una tienda de electrónica un mismo integrado en diferentes versiones teniendo en cuenta su MTBF, más elevado = mayor calidad = mayor precio.
Saludos.
christophb
Desde luego que esta noticia no contextualizada a drede sólo busca sensacionalismo. No se ha dicho que la nave monta un chásis con 7 tarjetas, cada una de ellas con el susodicho IBM PowerPC 750, destinadas a distintas funciones, y todas gobernadas por un controlador resistente a las radiaciones. Las tarjetas de procesamiento llevan también FPGAs virtex II para hacer el trabajo duro. Bien es verdad que espacio siempre va por detrás por una sencilla razón, los componentes tienen que pasar los ensayos de certificación, pero también se atiende a robustez ante radiación y condiciones ambientales además de la estabilidad del mismo. Basicamente, se emplea lo que se sabe que funciona y aguanta bien por ensayos o por experiencia previa y cuanto más sencillo mejor.
chamaruco
Aunque las razones principales han sido ya perfectamente expuestas...
Tampoco hay que correr un sistema multipropósito con una pesadísima interfaz gráfica y tropecientas aplicaciones a la vez.
artyom33
Escribís sin saber sobre energía y electricidad, ahora le toca a la electrónica espacial. A ver si afináis los temas para los que tenéis gente competente.
hellgadillo
Lo que pasa es que si le hubieran puesto un quad core o un i7 el costo de la misión hubiera ascendido varios billones de dólares.
Lo que me sorprende es que gastando tanto dinero y no pueden crear sus propios procesadores, raro.
aar21
Al portátil de casa no le sometes a las aceleraciones, cambios de temperatura y presión que tiene una nave espacial, y tampoco te va la vida en un fallo.
muchachoseguro
Un artículo serio sobre la fabricación de semiconductores en la industria aeroespacial.
www(dot)tomshardware(dot)com/reviews/stmicroelectronics-factory-rennes-france,3503.html
Usar procesos de fabricación que datan de los años 70 (por ejemplo, 7500 nm) es bastante habitual, todo en aras a la fiabilidad que exige este sector. Por ejemplo, el diodo 2N2222 -que fue puesto a la venta por primera vez por Motorola en 1962- sigue estando entre los más demandados.
dictomiko
Claro... al espacio se manda "hardware" cuya fiabilidad está ya sobradamente demostrada. A nadie se le ocurriría poner en órbita, con lo que cuesta, equipamiento o software que está todavía en fase de pruebas. En el espacio se necesita tecnología fiable, no puntera.