La nueva empresa de dos ex-OpenAI nació tras la crisis que casi termina con Altman. Y quiere ser lo que allí no le dejaron ser

  • La nueva empresa de Sutskever y Levy presume del enfoque se les llevó por delante en OpenAI

  • Un enfoque basado en la seguridad por encima de las urgencias comerciales

Ilyas
3 comentarios Facebook Twitter Flipboard E-mail

La nueva empresa de Ilya Sutskever, ex de OpenAI, tiene un nombre que es una declaración de intenciones. Sobre ella misma y sobre la que a partir de ahora será su competencia: 'Safe Superintelligence' (Superinteligencia Segura), abreviada como SSI.

Por qué es importante. Su lanzamiento, con antiguos líderes de OpenAI al frente, marca un paso notable en la búsqueda de un futuro de IA segura. Justo lo que dinamitó internamente a la empresa, con victoria final de Altman.

SSI busca garantizar que los sistemas de IA superinteligentes se desarrollen con la seguridad y la protección como prioridades fundamentales. Evitando posibles consecuencias catastróficas.

El contexto. La superinteligencia se refiere a sistemas de IA que superan la inteligencia humana en todos los ámbitos. Garantizar la seguridad de estos sistemas es crucial, ya que sus capacidades podrían influir en muchos aspectos de nuestra vida.

La misión de SSI, resumida en su sencillísima web corporativa, es avanzar en las capacidades de la IA manteniendo siempre un enfoque en la seguridad, intentando resolver este doble desafío mediante innovaciones de ingeniería y científicas, y libre de las urgencias comerciales.

El desafío. Crear una superinteligencia segura implica superar varios obstáculos, tanto técnicos como filosóficos:

  1. Problema de alineación. Garantizar que los sistemas de IA actúen conforme a las intenciones humanas. Los métodos actuales, como el aprendizaje por refuerzo basado en retroalimentación humana, son insuficientes para supervisar sistemas de IA significativamente más inteligentes que los humanos​.
  2. Escalabilidad de la seguridad. Las técnicas actuales de alineación de IA no escalan a los niveles requeridos para la superinteligencia. Hacen falta nuevos avances científicos y técnicos para desarrollar medidas de seguridad confiables.
  3. Equilibrio entre velocidad y seguridad. SSI busca avanzar rápidamente en las capacidades de la IA asegurando al mismo tiempo que las medidas de seguridad siempre vayan un paso por delante. Esto requiere un equilibrio delicado y una innovación continua.

En perspectiva. Analistas como Chirag Mehta han mostrado sus dudas sobre la ambigüedad del concepto de "superinteligencia segura" y sus implicaciones prácticas.

El lanzamiento de SSI atraerá a investigadores con una gran vocación del desarrollo seguro en IA y quizás desilusionados con el enfoque actual de gran parte de la industria, que prima productos comercializables por encima de las consideraciones éticas.

Con el anuncio de la nueva empresa queda ver qué tipos de perfiles se van incorporando a ella, y cuál es el contexto de cada uno. También será interesante ver quiénes la financian y con quién se asocia como termómetro para intuir su potencial para alcanzar sus objetivos.

Imagen destacada | OpenAI, Xataka

En Xataka | Nvidia, OpenAI y Microsoft están siendo los grandes ganadores de la IA. Estados Unidos cree que tienen demasiado poder

Inicio