Si en 1950 querías comunicarte con un ordenador, usabas una tarjeta perforada. A principios de los 60 los ingenieros que trabajaban en este ámbito se dieron cuenta de que esa forma de interacción era una pesadilla, y acabaron descubriendo que era mucho "hablarle" a las máquinas a través de un teclado y de un monitor en el que se mostraba esa interacción.
Así nacía la interfaz de línea de comandos (CLI) que acabaría siendo fundamental en los sistemas Unix y posteriormente en la introducción de la informática personal y los microordenadores. Todos éramos felices con aquello —yo lo fui con mi C64—, pero no teníamos ni idea de que en realidad aquello también era bastante terrorífico y poco amigable.
Y entonces llegó el Xerox PARC, de donde salió (entre otras cosas) un nuevo concepto llamado interfaz gráfia de usuario (GUI). Los responsables de Xerox no sabían lo que tenían delante y dejaron pasar la oportunidad. Steve Jobs, no.
El cofundador de Apple vio que aquello era el futuro y lo demostró con el Macintosh de 1984. Microsoft acabó apuntándose a la tendencia, y durante más de dos décadas creímos que ya estaba todo inventado y que no había mejor forma de interactuar con una máquina que con un ratón y un teclado.
Era mentira.
En 2007 Steve Jobs le demostró al mundo que las cosas podían mejorar más. Nacía el iPhone y su pantalla multitáctil. Ya no necesitábamos ratón y teclado para manejar ese ordenador de bolsillo. Bastaban nuestros dedos. Aquel prodigio vivió sus propia revolución —adiós botones capacitivos, hola gestos— y nos llevó a donde estamos hoy.
Y de nuevo creemos que ya está todo inventado y que no hay mejor forma de interactuar con una máquina que plantando nuestros dedos en la pantalla.
¿Es eso mentira?
Esa es la gran incógnita, porque al smartphone llevan buscándole sustituto desde hace años. Lo intentó el reloj inteligente y lo intentaron las gafas de realidad virtual,pero ni una ni otra han pasado de ser más que meras extensiones del smartphone o del PC, respectivamente. Sin ellos —al menos, en la mayoría de los casos— pierden buena parte de su sentido.
Pero en 2023 hemos vislumbrado algunas ideas que apuntan a una nueva (y potencial) disrupción. Hay nuevas tendencias en las formas en las que nos comunicamos con las máquinas, y quizás alguna de ellas acabe logrando eso que parece difícil: que esa interfaz hombre-máquina (HCI, por sus siglas en inglés) sea aún mejor. ¿Cuáles son? Repasémoslas:
- Voz: los asistentes de voz como el asistente de Google o Siri trataron de convertirse en la nueva forma de interactuar con la tecnología. A pesar de ser parte integral de nuestros móviles y ser también impulsores de la IoT y los dispositivos conectados, su alcance ha sido siempre limitado. Algunos citan el problema del contexto como razón: la conversación humana está llena de matices, y trasladarlos a un sistema HCI es, por el momento, inútil. Así que hablamos con órdenes claras, casi teniendo que aprender el idioma de la máquina para que nos entienda.
- Realidad aumentada: Las Google Glass pudieron ser pero no fueron. Desde entonces hemos visto varios intentos por convertir la realidad aumentada en la próxima gran revolución de la tecnología... sin éxito. Magic Leap prometió demasiado, y desde hace un tiempo es Apple la que parece tener claro que ese es el camino. Sus Apple Vision Pro son
una de lasla gran esperanza en este sector, y lo son en gran parte no por lo que hacen, sino por cómo lo hacen. - Seguimiento de los ojos: El primer gran pilar del control de las Apple Vision Pro es su sistema de seguimiento ocular, que permite detectar dónde estamos mirando para interactuar con ese elemento que está en pantalla y no con otro. Es una idea excepcional que, eso sí, parece limitada por el hecho de tener que llevar las gafas puestas, pero no está sola.
- Gestos: La otra parte de la interfaz de uso de las Apple Vision Pro son gestos con los dedos de las manos, que basta que estén a la vista de las gafas para ser detectados. El concepto no es nuevo —los nuevos Apple Watch también ofrecen soporte parcial para estos gestos, y mucho antes ya vimos cómo las Nintendo Wii primero y Microsoft Kinect aprovecharon esta tecnología—. No parece que los gestos puedan cambiarlo todo, pero sí podrían convertirse en un elemento interesante de esa nueva forma de interacción con las máquinas.
- Wearables: El AI Pin de Humane es el último gran protagonista del sector de los wearables —en 2023 ni la IA nos ayuda con una traducción decente de ese término—, pero eso no significa que vaya a triunfar. El propósito parece ser reemplazar al móvil tradicional, pero quienes lo han visto en acción no lo tienen nada claro. Ese miniproyector... En fin.
- Chatbots: quizás la verdadera revolución de las interfaces humano-máquina era una que teníamos delante porque fue la que (casi) lo empezó todo. Ya hemos hablado de la línea de comandos: esa era nuestra forma de hablar con las máquinas, pero llegó la GUI y la usabilidad ganó demasiados enteros. Ahora ese concepto vuelve a ponerse de moda con ChatGPT y el resto de plataformas de IA generativa de texto: estos chatbots —hay una empresa que los llama copilotos— nos permiten hablar de forma mucho más natural con las máquinas. Nos entienden y nos responden ya tan bien que casi dan ganas de dejar atrás a los buscadores de toda la vida para conversar con las máquinas.
¿Lograrán algunas de estas tecnologías cobrar verdadero protagonismo a corto plazo? Hace un año seguramente hubiéramos descartado a los chatbots —ojo, que ya vivimos una fiebre por esta tecnología—, pero la llegada de ChatGPT lo ha cambiado todo y parecemos más dispuestos que nunca a chatear con nuestro ordenador o con el móvil. En este último, por cierto, resulta aún más natural hablar ahora que el chatbot nos entiende mucho mejor.
La voz y los chats se postulan por tanto como grandes protagonistas de ese futuro. Microsoft no para de integrar las opciones de ChatGPT en todas sus plataformas —Windows 11 ya lo hace, aunque en Europa no podamos probarlo de momento—, y el resto de grandes y pequeñas empresas en el ámbito tecnológico no quieren perder esa oportunidad.
Parece por tanto que esas dos vertientes cobran relevancia. Al menos, hasta que podamos comunicarnos con las máquinas mediante el pensamiento. Y eso, que parecía una absoluta locura, puede no estar tan lejos después de todo.
Ver 6 comentarios