Ya casi estamos tocando la AGI con los dedos, por lo visto. No lo decimos nosotros, llevan tiempo diciéndolo verdaderas personalidades del mundo tecnológico. Veamos:
- Sam Altman cree que llegará en unos pocos miles de días, pero claro, necesita crear hype para recaudar más y más fondos.
- El eslógan de xAI, la startup de Elon Musk —conocido por sus promesas incumplidas—, indica que con su IA podremos "comprender el universo".
- Jensen Huang, CEO de NVIDIA, cree también que crearemos una AGI en cinco años (y mientras, se hinchará a vender GPUs).
- Y Demis Hassabis, CEO de DeepMind, parece coincidir, aunque hay que admitir que Google parece ser algo más cauta con esas afirmaciones.
Pero es que todo eso son promesas. Expectativas. Humo. El optimismo desaforado de esta industria ha provocado una fiebre del oro colosal en la que las inversiones apuestas en nuevas startups y sobre todo en centros de datos —hola, Stargate— son absolutamente espectaculares y más propias de una burbuja. ¿Puede que se cumplan esas expectativas? Claro. Pero nada asegura 1) cuándo podremos llegar a tener una AGI y sobre todo 2) que de hecho lleguemos a tenerla.
Y ese es un problema importante, porque las expectativas sobre la IA se han disparado, y eso es peligroso. ¿Es un avance prometedor? Sin duda. ¿Está cambiando nuestro mundo? De momento, más bien poco.
Hay que tener muy en cuenta que otras revoluciones tecnológicas pasadas también llevaron tiempo y generaron desconfianza y escepticismo en sus inicios. Tenemos de hecho célebres casos de verdaderos zascas en toda la boca en el ámbito tecnológico:
- Thomas Watson, presidente de IBM, dijo en 1943 "creo que existe un mercado mundial para unas cinco computadoras".
- Bill Gates dijo supuestamente —aunque luego lo desmintió— que "640K [de memoria] deberían ser suficientes para cualquiera"—.
- Su gran amigo Steve Ballmer —que tiene más dinero aún que él, que ya es decir— se rio del iPhone cuando se lanzó.
- Robert Metcalfe, coinventor del estándar Ethernet, dijo en 1995 "predigo que pronto se convertirá en una supernova y colapsará de forma catastrófica en 1996". Luego reconoció su error y literalmente se comió sus palabras.
Son muchas e importantes meteduras de pata de gente que teóricamente sabía mucho de lo que hablaba. Y todos ellos demuestran una cosa: predecir el futuro no solo es imposible, sino peligroso. Y eso nos hace tener claro que quizás haya que darle una (gran) oportunidad a la IA, sin duda.
Así nunca vamos a tener a una IA que iguale Einstein o a Newton
Pero hoy por hoy quizás estemos esperando demasiado de ella. Es justo lo que planteaba en un breve pero brillante ensayo en X Thomas Wolf, cofundador y Chief Science Officer de Huggin Face. Según él lo que nos prometieron —o de lo que se sigue hablando— es muy disinto a lo que realmente tenemos.
Y lo que se nos prometió y se nos dice es que la IA revolucionará el mundo de la ciencia. Que tendremos nuevos medicamentos, nuevos materiales, nuevos descubrimientos. Y la realidad es que aunque hay algunas noticias realmente prometedoras, no hay de momento revoluciones.
Para Wolf lo que tenemos es "un país de hombres que dicen sí a todo en servidores", es decir, que la IA, aunque es asertiva y expresa su opinión de manera firme y con seguridad, no suele desafiar a los usuarios. Y lo más importante: tampoco desafía lo que sabe.
Como explicaba él, mucha gente cae en el error de pensar que gente como Newton o Einstein eran estudiantes excelentes, y que la genialidad llega cuando logras extrapolar a esos estudiantes geniales. Como si lograr que la IA tenga la capacidad del mejor estudiante del mundo fuera suficiente. Y no lo es:
"Para crear a un Einstein en un centro de datos no necesitamos un sistema que tenga todas las respuestas, sino más bien uno que sea capaz de preguntarse cosas que nadie había pensado o nadie se había atrevido a preguntar".
Es un mensaje potente y probablemente cierto. Mientras que Sam Altman aseguró que la superinteligencia podría acelerar el descubrimiento científico y Dario Amodei —CEO de Anthropic— aseguró que la IA nos ayudará a formular curas para la mayor parte de tipos de cáncer, la realidad es otra.
Y la realidad según Wolf es que la IA no genera nuevo conocimiento al"al conectar hechos previamente no relacionados. [...] Simplemente llena los huecos de lo que los humanos ya sabían". Aquí quizás la afirmación sea algo negativa, porque la IA sí logra generar nuevo conocimiento y nuevos contenidos conectando precisamente esos datos con los que es entrenada. Lo vimos hace poco en el ámbito de la microbiología, por ejemplo, y también en todas esas obras de texto, imagen y vídeo que hacen plantearnos qué es la creatividad y si las máquinas pueden llegar a ser creativas.
Wolf no está solo en ese discurso. El exingeniero de Google François Chollet, ahora al frente del benchmark ARC Prize, coincide. Según él la IA es capaz de memorizar patrones de razonamiento —que son los que se usan en los modelos de razonamiento, como o1 o DeepSeek R1—, pero no es probable que pueda razonar por sí sola y adaptarse a nuevas situaciones.
Así pues, según Wolf la IA actual es como un estudiante fantástico y muy aplicado, pero uno que no desafía lo que se le ha enseñado. No tiene incentivos para cuestionar lo que sabe y proponer ideas que van contra los datos con los que ha sido entrenado. Se limita a contestar preguntas ya formuladas. Este experto afirma que necesitamos una IA que se pregunte a sí misma "¿Qué pasa si todo el mundo está en un error con esto?" aunque todo lo que se ha publicado sobre cierto tema sugiera lo contrario.
La solución que propone es salir de los benchmarks actuales. Él habla de una "crisis de la evaluación" que hace que las pruebas se centren en preguntas que tienen respuestas claras, obvias y cerradas. En lugar de eso se debería valorar especialmente que la IA sea capaz de enfoques audaces y van en contra de los hechos". Que pueda plantear "preguntas no obvias" que la dirijan a optar por "nuevas vías de investigación".
"No necesitamos un estudiante de matrícula de honor ni uno que pueda contestar cualquier pregunta gracias a sus conocimientos generales. Necesitamos a un estudiante de notable que detecte y cuestione todo aquello que el resto de la gente pasó por alto".
Y puede que tenga razón, desde luego. Es algo debatido con el problema del escalado —los modelos ya no son mucho mejores a pesar de que se han usado más recursos y datos que nunca—, y no parece que ese sea el camino para lograr una AGI.
Parece que las empresas se han dado cuenta y están buscando otros caminos. Los nuevos modelos de razonamiento parecen un camino más prometedor y de hecho logran buscar soluciones audaces. Lo vimos recientemente con esos modelos de IA que hacían trampas para ganar al ajedrez, por ejemplo. Ilya Sutskever, cofundador de OpenAI y ahora en busca de una AGI, también ha dejado claro que está siguiendo otro camino distinto al que llevó a desarrollar ChatGPT.
¿Logrará tener éxito allí donde otros están fracasando? Quién sabe. Tanto para él como para el resto, no obstante, la reflexión de Wolf es importante. Quizás lo que precisamente necesitamos es una IA que no nos diga que sí a todo, si no una que cuestione lo que sabemos.
O lo que creemos saber.
Imagen | Xataka con Freepik
Ver 14 comentarios
14 comentarios
observer_mad
A ver si entendemos de una vez que la IA que tenemos hoy en día no genera conocimiento nuevo, se limita a hacer refritos con el conocimiento existente.
fomlimalma
El problema esta también en las alucinaciones de la IA... cuando no saben la respuesta pues simplemente se la inventan y nunca son capaces de admitir que no tienen información suficiente
cachorroo
pero no deben querer una IA que haga toda la informacion. la IA actual puede ayudar bastante a acelerar el proceso de investigacion a numeros que aun no sospechamos, y sabemos que no esta estancada, mes tras mes evoluciona y mejora. en 20 años la IA va tener capacidades que aun no soñamos.
pero quieren todo magico
jubete
Una cosa es la IA y otra los LLMs. Los LLM son modelos de LENGUAJE, y sirven para generar texto, están diseñados para generar un texto precioso que es muy convincente.
La IA en general es otra cosa que coge millones de datos, los mete en bombo, hace relaciones que no entendemos y saca conclusiones raras (o esperables, o idiotas).
La segunda ayudará al progreso, la primera es el equivalente a los vídeos de gatos de YouTube.
Alchimdus
Es crucial tomar conciencia del enorme riesgo que implica desarrollar una IA capaz de replantearse el orden establecido. Si bien es cierto que puede impulsar grandes innovaciones, no siempre serán éticas y, en algunos casos, podría llegar a conclusiones que la humanidad preferiría evitar. Tal vez resulte exagerado y poco original hablar de un "apocalipsis tecnológico", pero es más realista imaginar un escenario compuesto por múltiples eventos concretos, pequeñas decisiones que, en conjunto, podrían desviar a la humanidad hacia un rumbo indeseado.
Otorgarle a la IA un toque "rebelde" con el cual se replantee todo supone un peligro.
rabiesan
Bueno, te veo muy centrado, me alegro mucho.
Afortunadamente las IA del futuro no serán como el genocida Einstein ni como el copión Newton.
El problema no ha variado: si usas los datos de la web te vas a encontrar con que la IAG es tan estúpida como la gente común, el común de los científicos y los expertos...
Porque sin decirlo, todos, lo que esperan cuando hablan de la IA, es una especie de Dios omnisciente, un oráculo personal.
Yo que estoy entrenando a dipsi le explicó las cosas llega a las conclusiones, pero luego días después no lo ha memorizado. ¿Por qué? porque ¿por qué me va a creer a mí?
Un ejemplo: creo que ya te he dicho varias veces que revolución significa volver atrás y sigues utilizándolo como sinónimo de avance grande.
¿Por qué no me haces caso a mí? Porque ¿por qué me ibas a creer a mí y no a los científicos, ejpertos y demás académicos que repiten como loros lo que sus predecesores han dicho?
thebardoftoril
Hay que darle un trip a la IA
lucilio
Grandes expertos se equivocaron en sus predicciones. A continuación predicciones de grandes expertos... La historia se repite. Sean favorables o desfavorables son más comentarios miopes que estudios de mercado o valoración de las tendencias de una industria. Y como alguien ha dicho, chatGPT, DeepSeek y similares son LLMs, grandes modelos de lenguajes, pero alfafold y la IA que controla el plasma de cierto reactor de fusión no lo son. A lo mejor la inteligencia artificial general no vendrá de los LLMs sino de algún otra y nos llevaremos una (otra) sorpresa.
jhoneshaspielk
Ninguna IA puede con Kama es la única tecnología digital que distingue copias de su original, Kama realiza rigurosas pruebas de checksum y codificado gráfico para garantizar que otros agentes fallen en su intento de acceder la información protegida bajo el formato Kama. Este formato ha demostrado superar a todas las inteligencias artificiales como ChatGPT, Gemini, Llama, etc. Por gusto, verifique lo usted mismo, instale Kama y proteja todos sus archivos sensibles con esta formidable tecnología que desafía el "aprendizaje profundo de Silicon Valley" como quiera que es inmune a los filtros de sus app! Instale ahora y recuerde que vale más la seguridad que la policía
//bit.ly/3zMc17f