En 1965 Gordon Moore observó un curioso fenómeno: cada año se doblaba el número de transitores de un circuito integrado. En 1975 revisaría esa estimación ligeramente: el fenómeno no se producía cada año, sino cada 18 meses. Aquella predicción ha sido una invisible referencia del mundo tecnológico que se ha cumplido inexorablemente. Es la célebre Ley de Moore.
Otro Gordon, de apellido Bell, hizo otra observación en 1972 bastante menos conocida pero igualmente singular. Él predijo que aproximadamente cada década se producía un cambio generacional en el mundo de la tecnología, un avance que dejaba atrás a la anterior generación. Desde entonces la Ley de Bell también ha demostrado cumplirse con bastante precisión, y según ella estamos a las puertas de una nueva era de la computación.
Juguemos a adivinar (un poco) el futuro
Gordon Bell fue uno de los primeros empleados de Digital Equipment Corporation (DEC), y se encargó de diseñar varias de sus legendarias PDP. Más tarde acabaría siendo responsable de ingeniería y del desarrollo de VAX, una familia de estaciones de trabajo con su propio juego de instrucciones CISC que tuvieron éxito en el ámbito empresarial durante más de una década.

En 1972 Bell observó cómo el mercado había cambiado desde que él entró en DEC: de los mainframes que lo dominaban todo en los 60 se pasó al despertar de los miniordenadores que acercaban la informática a muchos más ámbitos, sobre todo en empresas y entornos académicos.
De hecho se dio cuenta de que el precio de esas máquinas no cambiaba: lo que lo realmente lo hacía eran sus especificaciones internas, que hacían que por el mismo precio se pudiera acceder a máquinas mucho más potentes año tras año.
En esencia lo que reveló la entonces bautizada como Ley de Bell (o Ley de Bell de las Clases de Computadoras) es que si la potencia de un ordenador se doblaba cada dos años, al cabo de una década esos ordenadores serían 32 veces más potentes.
Para Bell cuando la potencia crecía y se multiplicaba por 10 se producía un cambio de paradigma, y que lo hiciera multiplicándose por 32 marcaba un hito singular: uno en el que una tarea específica pasaba de ser apenas posible (muy difícil de realizar) a completamente trivial.
El resultado de ese avance es un nuevo tipo de plataforma informática que también llega con nuevas capacidades y conceptos asociados a ella.
La estimación es muy optimista, todo hay que decirlo. La potencia de nuestros ordenadores y móviles no se duplica año tras año, pero es cierto que si miramos diez años atrás, la potencia de lo que tenemos ahora deja en ridículo a lo que teníamos antes y ciertamente habilita capacidades que antes eran casi impensables.
Aunque las franjas de tiempo no siempre han respetado con exactitud ese periodo de 10 años, lo cierto es que la Ley de Bell tiene desde luego respuesta en la evolución del mercado tecnológico:
- 1960: mainframes
- 1970: minicomputadores
- 1980: ordenadores personales y estaciones de trabajo conectadas
- 1990: navegadores web e internet
- 2000: dispositivos de mano, PDAs, primeros (pre)smartphones, iPods
- 2000: servicios web
- 2005: redes de sensores inalámbricos que derivan en la internet de las cosas (IoT)
- 2006: computación en la nube (AWS)
- 2007: smartphones (iPhone)
- 2012: wearables (Pebble)
Podríamos considerar además que la llegada del iPhone (que en cierta forma "se adelantó" a esa ley de Bell) planteó esa era de la computación en la que hemos estado inmersos en los últimos años y que ha tenido un impacto espectacular.
La próxima era de la computación
Bell predijo que las redes de área doméstica y corporal se comenzarían a desarrollar en la década de 2010 que ya hemos dejado atrás, y no le faltaba razón: el Pebble detonó la fiebre por los relojes inteligentes que luego derivó en el desarrollo de pulseras cuantificadoras y del resto de werables que ahora triunfan en el mercado.
¿Cuál es la próxima era de la computación? Todo parece apuntar a lo que Rick Osterloh y Google han llamado 'ambient computing' y que es una especie de IoT supervitaminada: prácticamente todo se convierte en un ordenador, y prácticamente todo está conectado sin necesidad de intervención humana.
En esa categoría ya no hay un formato definido, y de hecho esa era de computación parece definirse por la falta de formato, que permite englobar potenciales disrupciones como las del coche autónomo y conectado o esas teóricas gafas de realidad aumentada que parecen ser un posible próxima evolución de los wearables. Puede que esta década de 2020 que acaba de comenzar nos esté llevando a ese futuro.
Imagen | Brian Kostiuk
Ver 18 comentarios
18 comentarios
m0w
No se porque se la sigue llamando "ley" cuando no es ninguna ley. Es una mera estimacion, que ni el propio Moore pensaba que se fuese a prolongar tantos años, por eso la ha ido actualizando con el pasar de las decadas.
Utilizarla como si fuese una ley (proposicion) es ridiculo.
Lo curioso es que la gente la menta en foros, blogs y donde plazca como si fuese algo cientifica o matematicamente probado, o mejor dicho, como si fuese algo en lo que hay que creer porque si.
Esta supuesta "Ley de Bell", pues mas de lo mismo. Bola de cristal a pilas, un par de pasadas de trapo y a soltar "predicciones".
Pero bueno, tambien se habla de "la Ley de Murphy"...
Humanos en internet, es lo que tiene
ruso.veintiocho
Me sigue haciendo gracia que se ponga el nacimiento de los smartphone en el nacimiento del iPhone, cuando en 2003 ya teníamos a symbian como SO en la cúspide de la telefonía que ofrecía Nokia.
La única diferencia notoria entre ambos es la pantalla táctil, cosa que no hace que un teléfono sea "inteligente".
p2dzca
Me da que existe otra 'ley' en informática que estamos ignorando: la seguridad informática se deteriora año a año. El número de hackeos, ramsonware, robo de datos, vulnerabilidades, etc. crece en número y en gravedad y, además, afecta a todas las empresas independientemente de su tamaño, da igual que sean Apple, Microsoft o Google.
kjbturok
Nos guste o no, yo apuesto por el blockchain.
editorenbici
Recién ahora los smartwatch empiezan a ser viables, son como la primera generación del iPhone. Pebble era bonito, pero era el equivalente a Palm y no se masificaron.
karloz0519
"¿Cuál es la próxima era de la computación? Todo parece apuntar a lo que Rick Osterloh y Google han llamado 'ambient computing' y que es una especie de IoT supervitaminada: prácticamente todo se convierte en un ordenador, y prácticamente todo está conectado sin necesidad de intervención humana."
Vamos a ver de donde van a salir los materiales para que absolutamente todo tenga un semiconductor y sea "smart"
jdosorio
Que tal si arreglamos la frase donde dice "lo que lo realmente lo hacía eran sus especificaciones internas,".
No viene al tema, pero me hace perder la cabeza.