El reciente ganador del Premio Nobel cree que en 20 años o menos la IA acabará superando la inteligencia humana
Pide que las empresas dediquen un porcentaje de sus recursos de computación a evitar posibles riesgos ante ese futuro
Geoffrey Hinton, considerado como uno de los "padrinos de la IA", ha sido uno de los recientes Premios Nobel de 2024. Ese galardón no ha modificado en absoluto su discurso sobre esta disciplina. De hecho en una de las primeras entrevistas que ha concedido tras recibir el Nobel, Hinton vuelve a alertar sobre la amenaza existencial que para él supone la IA. Una que llegará incluso de lo que él pensaba hace no mucho.
Amenaza existencial en 20 años o menos. Geoffrey Hinton ya expuso su opinión sobre los riesgos a los que nos enfrentamos con la inteligencia artificial, pero con el tiempo ve aún más acuciante esa "amenaza existencial". Hasta no hace mucho él mismo creía que el riesgo estaba muy lejos, que la amenaza no se plantearía hasta dentro de 100 años, quizás 50, y por tanto tendríamos tiempo de afrontarla. "Ahora creo que es bastante probable que en algún momento en los próximos 20 años las IAs se vuelvan más inteligentes que nosotros y realmente necesitamos preocuparnos por lo que ocurrirá después". Es un mensaje similar al que Hinton ya dio en mayo en otra entrevista con la BBC.
Necesitamos mantener el control. Hinton explica en la entrevista (minuto 21:35) cómo habría que dedicar muchos más recursos a lograr que los seres humanos mantengan el control sobre el desarrollo y la operativa de la inteligencia artificial. Sin embargo, explica, los gobiernos no tienen los recursos para ello: son las grandes empresas las que lo tienen.
Un tercio de la potencia de cálculo, no de los ingresos. Pero además, destaca, aquí lo necesario sería no dedicar un porcentaje de los ingresos. Para él eso puede ser muy confuso y engañoso debido a cómo las empresas publican esos ingreoss. En lugar de eso, deberían dedicar un porcentaje de su capacidad de computación.
Una de cada cuatro GPUs deberían centrarse en los riesgos. Para él, ese porcentaje debería situarse en un 33%: la tercera parte de los recursos de computación de empresas como Microsoft, Google, Amazon o Meta debería dedicarse precisamente a investigar cómo evitar que la IA se convierta en una amenaza para los seres humanos. Él, no obstante, se conformaría incluso con que fuera una cuarta parte (un 25%) de esos recursos.
Abandonó Google y ahora evangeliza sobre los riesgos de la IA. Hinton fue uno de los grandes impulsores del aprendizaje automático. Su trabajo es base de muchos avances claves para el actual desarrollo de la IA, y durante un tiempo trabajó en esa división en Google. Sin embargo en la primavera de 2023, poco después de la explosión de la IA generativa, Hinton abandonó Google para alertar sobre los peligros de la inteligencia artificial "libremente".
Otros expertos como LeCun critican esa visión pesimista. Yann LeCun, máximo responsable de IA en Meta y otra de las grandes voces de este ámbito, tiene una visión muy distinta de lo que nos espera. En una entrevista reciente con The Wall Street Journal LeCun indicó que mensajes como los que lanza Hinton son "ridículos". Para él la IA tiene mucho potencial, pero hoy por hoy la IA generativa es básicamente tonta y este tipo de sistemas no lograrán igualar la inteligencia humana.
Imagen | Collision Conf en Flickr
En Xataka | La IA generativa parece estancada, pero Suleyman tiene claro que estamos en la primera "fase": quedan dos
Ver todos los comentarios en https://www.xataka.com
VER 11 Comentarios