La nueva empresa de Ilya Sutskever tiene un objetivo claro: crear una superinteligencia con seguridad "nuclear"

  • El cofundador de OpenAI, que además era su científico jefe, salió escaldado tras el despido y regreso de Sam Altman como CEO

  • Acaba de crear Safe Superintelligence Inc (SSI) con el reto de desarrollar una superinteligencia segura

Sutskever
9 comentarios Facebook Twitter Flipboard E-mail

El pasado mes de noviembre fue el más tumultuoso de la historia de OpenAI. La empresa despidió de forma repentina a su CEO, Sam Altman, pero los acontecimientos se precipitaron y Altman acabó volviendo a su puesto a los pocos días. Hubo consecuencias, y una de ellas fue la salida de Ilya Sustkever, cofundador y científico jefe de la compañía. Un mes después de abandonarla, Sutskever acaba de anunciar la creación de una nueva empresa de IA.

Safe Superintelligence Inc (SSI). Así se llama la nueva empresa fundada por Ilya Sutskever, Daniel Gross (que fue socio de la incubadora Y Combinator y que trabajó en la división de IA de Apple) y Daniel Levy, otro exingeniero de OpenAI. La empresa tendrá sedes en Palo Alto (California, EEUU) y en Tel Aviv (Israel). Tanto Sutskever como Gross se criaron en Israel.

El reto. El anuncio oficial de la compañía sorprende en primer lugar por su formato, una página web absolutamente minimalista que casi parece de otra época. En él los fundadores explican cómo su misión es justo la que indica el nombre de la empresa: desarrollar una superinteligencia segura. La pregunta es, ¿segura, en qué sentido?

Seguridad nuclear. En una entrevista en Bloomberg Sutskever explicaba que "por segura queremos decir segura como cuando hablamos de seguridad nuclear, en contraposición con segura cuando hablamos de "confianza y seguridad"", que es el discurso que más o menos ha mantenido Sam Altman en OpenAI en los últimos años.

Sutskever siempre defendió desarrollos de IA cautelosos. El ingeniero fue uno de los que impulsó el despido de Sam Altman, y todos los rumores apuntaban a que sus formas de ver el desarrollo de los modelos de IA de OpenAI era distinto: Altman siempre defendió la publicación de modelos cuanto antes, mientras que Sutskever parecía mucho más cauteloso. Tras la crisis, eso sí, mantuvo un perfil muy bajo, y apenas sí apareció durante el evento de presentación de GPT-4o.

Inversión casi asegurada a pesar de un objetivo casi inalcanzable. El pedigrí de los fundadores hace pensar que no tardarán en conseguir levantar una gran cantidad de dinero en rondas de inversión. Sin embargo, eso no significa que la empresa vaya a tener éxito: crear una superinteligencia —tan capaz como la del ser humano, o más— parece una tarea esquiva, aunque esa búsqueda de una AGI ya se ha convertido en foco tanto de OpenAI como de Meta, entre otras.

¿Cómo garantizar la seguridad? Aun admitiendo que sea posible desarrollar una AGI o una superinteligencia, lo que no parece tan claro es cómo conseguir que sea segura. Sutskever asegura que lleva años planteándose ese mismo problema y que ya tiene ideas para afrontarlo. Para él "en el nivel más básico, una superinteligencia segura debería tener la propiedad de no dañar a la humanidad a gran escala". La idea es razonable. Lo difícil es conseguir que se haga realidad.

Imagen | OpenAI

En Xataka | El auge de la inteligencia artificial está reavivando un viejo temor en las empresas estadounidenses: el espionaje chino

Inicio