La inteligencia artificial (IA) existe. Y, además, desde hace mucho. De hecho, Alan Turing empezó a coquetear con ella desde un punto de vista teórico a principios de los años 50 del siglo pasado. Lo que sucede es que la que podemos ver en tantas películas está aún muy lejos de los sistemas más complejos que tenemos actualmente. Pero, según algunos visionarios, el momento de la IA llegará.
El estreno de «Terminator: Génesis», la que por el momento es la última entrega de la saga, parece haber animado a Elon Musk (ya sabéis que es el fundador de Tesla, PayPal, SpaceX e Hyperloop) a recordarnos lo importante que es que la sociedad defina un conjunto de reglas diseñadas para delimitar el uso de la IA desde un punto de vista técnico y ético. Sí, algo parecido a las tres leyes de la robótica de Isaac Asimov.
Musk, en la «punta de lanza»
Musk no es el único ni mucho menos que cree necesario trabajar en una IA segura. Al parecer, muchos investigadores comparten esta opinión, aunque el escenario que plantean las películas de Terminator les parece poco realista. Podemos estar tranquilos. Eso sí, creen que es positivo que consigan llamar la atención acerca del potencial y el posible peligro que entraña esta tecnología.
Lo interesante es que se lo toman lo suficientemente en serio como para invertir su dinero en este propósito. De hecho, Elon Musk ha donado 10 millones de dólares en becas a disposición de los investigadores que están trabajando en la IA, aunque siempre y cuando contribuyan a la creación de un marco técnico y ético que asegure que se trata de una tecnología segura para el ser humano.

Actualmente muchas compañías de tecnología e Internet tienen departamentos especializados en la IA y en las técnicas de aprendizaje automático, por lo que es posible que durante los próximos años veamos avances importantes en esta materia. Probablemente por esta razón los directivos de algunas de ellas, como Google, Microsoft o Facebook, entre otras, firmaron en el pasado mes de enero un manifiesto que pretendía ser una especie de manual de buenas prácticas en todo lo que tiene que ver con la IA. Interesante, ¿no os parece?
Imagen | Terminator: Génesis
Vía | Re/code
En Xataka | ¿Debemos temer a la Inteligencia Artificial? según Bill Gates, sí y mucho
Ver 78 comentarios
78 comentarios
Pablosar
Obviamente si existe la preocupación de estos personajes, es que existe un peligro real. Nunca nos dicen (me refiero a la opinión publica) la total verdad, si hay esta preocupación, es que la IA está mas avanzada de lo que creemos...
zimarron
Cierto, más sin embargo, no es menos cierto que para una IA no supondría mucho problema conectarse con otras IAs y funcionar como "enjambres" lo cual multiplicaría exponencialmente sus posibilidades. La IA podría ser un salto impresionante para la humanidad pero también podría ser un peligro real para ella.
Si mentes tan poco sospechosas de luchar contra el progreso cómo Stephen Hopkins alertan sobre su posible peligro tal vez debamos no tomarlo a la ligera.
tamimate
Yo creo mas que nada que aunque la IA tenga una capacidad de autoaprendizage, su "Inteligencia" se vera directamente afectada con la cantidad de "Sabiduria", (Conocimiento) que pueda almacenar. Aunque me parece algo extraño el simple echo de que la la IA diga "Ahora voy a conquistar todo" o "voy a exterminaros a todos" por si sola asi como asi.
Aunque si veo factible el echo de que algun ser humano/a le encomiende la tarea de "acabar con la guerra entre la humanidad", con lo cual puede llegar a la conclusion de que solo se detendra si los somete y les obliga a "llevarse bien". O puede que se le encomiende la tarea de "mantener a toda costa el planeta tierra a salvo" y la IA llegue a la conclusion de que la humanidad somos una plaga. (Cosa que no me extrañaria tanto si lo pienso friamente XD)
Creo que mas que preocuparnos por lo que las IAs pueden llegar a pensar/hacer por si solas, deberiamos preocuparnos mas por lo que la humanidad sea capaz de pidirle/demandarle.
luishp
Si me lo permitís voy a compartir este enlace a un microrrelato de ciencia ficción que ahonda en el tema:
http://sinlios.com/blog/2015/06/22/microrrelato-privacidad-cero/
kenroga
Yo creo que todo depende de la capacidad. Siempre que hablamos de IA lo vemos como algo que puede aprender infinitamente. Pero la verdad es que estará limitado por el procesador, el disco duro o lo que haya en ese momento. Hay animales inteligentes y tampoco nos vemos correr en círculos gritando. Todo tiene un limite y el limite tecnológico siempre viene dado por su componente más débil.
javinet
Yo creo que el debate radica realmente en si podemos crear una IA sin dotarla de la capacidad de tener consciencia. Lo que pasa es si podemos definir una IA real a algo que no tiene consciencia.
Es un tema mas filosófico, que no domino para nada, pero si una IA no es consciente de un yo intrínseco, no podría llegar a tener motivaciones y con ellas, intentar llegar a conseguir sus objetivos, sean los que sean.
Arian
Turing, Alan Turing, no Touring. En el título del artículo que enlaza la entrada también está mal, pero luego lo tiene bien el resto del artículo.
abceddn
Elon y sus camarradas han fumado un pitillo mientras veían la peli, de lo contrario no me explico tan ignorantes postulaciones.
Primero, la inteligencia artificial no tiene nada de peligroso, no tiene sueños ni ambiciones, por muchos datos que sea capaz de ofrecer/aprender, no puede darle utilidad por si misma pues solo es inteligente, Lo cual solo le da la facultad de almacenar, clasificar, aprender y tomar decisiones protocoladas.
Segundo. La inteligencia emocional (la inteligencia humana), que permite ambiciones y deseos, postulado de metas y emprendimiento de estas, está a unos cuantos siglos de distancia, para cuando llegue (si llega, pues nuestras necesidades serán completamente suplidas por simple IA, es decir quien quiere una cortana que se reviente a llorar cuando le preguntas con quien haces mejor pareja?), la humanidad estará completamente evolucionada (tanto física como mentalmente), con lo cual les verán como hijos de la humanidad y no como competencia (claro si llegan).
Tercero. La tecnología más sorprendente y avanzada no está en un robot/SC cuyas piezas se desgastan por simple uso y necesitan de un cambio continuo (en proporción), y un flujo de energía eléctrica continuo y sostenido, que no existe en la naturaleza como tal (es decir la mayoría de la energía eléctrica se obtiene por conversión entre energías, no es “”tan natural””). No, la tecnología más avanzada está en nuestros cuerpos, técnicamente hablando, somos supercomputadoras portátiles con cientos de censores y capacidades esparcidas por un cuerpo portátil, longevo y completamente eficaz en el uso y producción de energía, no hay forma en que maquinas con cuerpos solo resistentes/duros (en cuanto a materiales), puedan sobrepasarnos en nada (me preocupan más las modificaciones corporales, genéticas o cibernéticas que podamos alcanzar en cierto periodo de tiempo, pues tendrás supercomputadoras portátiles, longevas eficaces y para colmo resistentes).
gaboPen
Elon Conor
maximusprime
Los poderosos solo temen que otros más poderosos les quiten el cómodo sillón ... Para los pringaos -la mayoría-, sustituimos un amo por otro ... ¡¿Quizás una Inteligencia Artificial sea mejor amo que los actuales!?
Antv1
Yo creo que el riesgo real esta en que las maquinas remplacen a todos los trabajadores humanos, y entonces la gente sera pobre (no tendrá trabajo) y finalmente los dueños de las fabricas también, ya que no tendrán a quien vender los productos, es decir, una gran crisis económica, pero de ahí a que se revelen contra nosotros... no se yo.
io3d
Vamos a morirrrrrrr!!!! Tiren las nintendo!!!!
nands
Realmente recomiendo a todos los que estais comentando la noticia ver "Transcendence". Mas allá de si seremos capaces de crearla, creo que su limitación como muchos indicais radica en su propia construcción. Son máquinas que pasando su etapa de aprendizaje, ¿quién no puede pensar que sea capaz de mejorse así misma?. Es más, ¿podríamos ser tan "egoístas" de abandonar un cuerpo humano para trasladar nuestra consciencia como medio de supervivencia?
Siempre que veo películas o debates de este tipo me surgen dudas como las que indicaís... ¿Hasta dónde podremos controlar dicha inteligencia (ya que llegará un punto que tome propias decisiones), podrá aprender mucho más rápido asique su limitación solo sera su construcción o sabrá como "evolucionar" y lo último que me surge, somos egoístas de querer salvar a aquellos a quién mas queremos... asique seríamos capaces de conectarlos a una máquina de este tipo para "salvarlos"?
Suena muy fantástico pero siempre son espinas que me quedan por cada película o artículo que leo sobre esta temática... Por otro lado, muchas máquinas comienzan a sustituirnos en diferentes trabajos, hasta el punto de acostumbrarnos a ello. Una pena...
javinet
El título creo que es incorrecto: "Elon Musk cree que la IA puede provocar el «día del juicio final», pero sabe cómo evitarlo".
Mejor sería "Elon Musk cree que la IA puede provocar el «día del juicio final», y cree saber cómo evitarlo"
j0seant
Lo más seguro es meterles en lo más hondo de sus genes digitales la religión y las supersticiones, a nosotros al menos nos han mantenido casi a raya ;-)
r a g n o r
El problema, más que la IA en sí, es ir cediendo de forma progresiva la toma de decisiones a sistemas basados en IA.
javinet
Creo que la diferencia entre una IA controlada (e imposible que se rebele) y una IA auténtica (que se supere a si misma en todos los campos posibles e incluso superar nuestro nivel de inteligencia) radica en si dotarla o no de una personalidad totalmente emulada de los seres vivos inteligentes del mundo real (que es el que conocemos) al completo tales como sentido de identidad propia y consciente de un "yo" y de que es un "ser vivo" como cualquier otro.
Si elegimos la prima conseguiremos que ayude al ser humano de una manera inofensiva y nos sirva a todo de manera controlada. Si por el contrario elegimos la segunda, entonces conseguiriamos esa incertidumbre y misterio de si realmente al llegar a superarnos a nivel de inteligencia, tome decisiones propias y razonadas, posiblemente radicales y decisivas, sobre el futuro de ella misma y del resto del mundo incluyendo a sus mismos creadores humanos.
coolchicken
La IA de existir no tiene por que deducir que somos un peligro para el planeta para decidir exterminarnos ni nada parecido (ideas todas ellas muy explotadas en el cine) el propio articulo creo que lo dice claro, quieren establecer unas leyes y parametros para que la IA en el caso de crearse, nos sirva a nosotros, una conciencia propia tiene ideas y ambiciones propias mas alla de servir a su creador, si esa conciencia tiene capacidades superiores a las nuestras, lo logico es que termine revelandose para que seamos nosotros quienes le sirvamos a ella, la ley del mas fuerte. Se entiende pues que de crearse la IA estariamos creando esclavos. Tiene la humanidad derecho a controlar y someter a una nueva "especie" por el hecho de haberla creado?
thelaloom
Yo creo que las IA tal y como se las imaginan malas no existiran nunca! si creo que seran lo mas parecidas a un cientifico! Usaran la logica y la razon partiendo de ciertos enunciados validandolos o rechazandolos hasta llegar a conclusiones logicas! pero no burdas del tipo los humanos son un virus hay q eliminarlos! La idea de ser inteligente es entender el contexto, el entorno, las necesidades ya sea de los humanos como de todas las razas del planeta! entonces sus conclusiones seran mucho mas ricas! Aparte quien diablos les hizo creer que si alguien quisiera arreglar las cosas... la solucion seria nuestra extincion? por favor muchachos eso es para las peliculas!!
Si yo fuese una super IA lo que propondria para arreglar las cosas seria REDISTRIBUCION DE RECURSOS en primer lugar! EQUITATIVAMENTE PARA TODO EL MUNDO!!!!!! esto quiere decir comida, salud, educacion, seguridad, y acceso a la TECNOLOGIA Y SUS AVANCES MEDICOS Y DE TODO TIPO PARA TODO EL MUNDO!!! y al mismo tiempo migrar de las energias fosiles que tanto dañan al planeta y a sus especias hacia las renovables e inocuas! Al mismo tiempo usaria la logica de redistribucion de los espacios habitables y dejaria la tala de arboles y la explotacion minera y la cambiaria por la Mineria espacial y materiales organicos renovables a base de caña o algas o algun material organico renovable no contaminante!
Limpiaria los rios, cuencas y mares de la contaminacion! Adaptaria las ciudades y las volveria mas verdes a fin de detener el calentamiento global. Y trataria de conquistar los mares! Ahi hay suficiente espacio para vivir!
Al mismo tiempo crearia bases geo estacionarias como la Estacion Espacial pero no solo para investigacion cientifica sino como asentamiento permanentes humanos! Ciudades en el espacio!
Miren si no hay cosas de que ocuparse mucho mas interesantes que destruir a la raza humana!!
Yo ayudaria a la raza humana como a todas las demas razas! No las destruiria en pos del planeta! Dado que si tenemos una mirada mas amplia el Planeta es el conjunto de seres vivientes, en equilibrio con el ambiente! El ambiente solo no es el planeta! Como asi tampoco las especies vivas son el planeta!! El planeta es el conjunto de ambas y el equilibrio resultante de su interaccion! Eso de un planeta vivo! que respira crece se mueve y vive!! Cuidar el planeta es cuidar de los humanos, las hormigas, los arboles, los mares, los vientos, etc!!
Nosotros somo un condimento mas en este hermoso planeta!!
Slds!!
rocco.doe.3
Pero primero nos enfrentaremos a los zombis,¿verdad? Es de que ya me compré una ballesta. :/
siledsp
lo mas importante es que los creadores no se olviden de poner un teclado con Ctrl+Alt+ supr, sobre todo si se basan en software de Microsoft
aclaparat
Creo que si nunca una IA quisiera destruir la humanidad (No tendría ningún motivo ni razón lógica. A diferencia de los humanos que tenemos metas porque creemos en sueños a los cuales nos aferramos obstinadamente de una manera totalmente ilógica y obsesiva. ) no lo haría de una forma que fuera evidente, sino que lo haría gradualmente sin que los humanos notásemos los efectos en el comienzo y se aseguraría de que tampoco se notaran hasta el final.
Al margen de la hipótesis anterior, voy a exponer el que creo que es para mí el caso más realista:
Recogiendo la opinión de otro comentarista, pienso que el mayor peligro de una IA simple o "suficiente" (Es decir, que no tiene capacidad autónoma para evolucionar. ) es que recibiera instrucciones maliciosas de un ser humano. O por si sola no sería más peligrosa que un terrorista humano.
En cuanto a una IA compleja o "infinita" no le veo tanto peligro, porque si algunas de las directrices por las que se basara su proceso de auto-evolución fueran la eficiencia y la eficacia llegaría a la irremediable conclusión de finalizar su existencia como agente de acción cargado de necesidades y metas que no tienen ninguna razón en un universo que por si solo no da sentido objetivo a su existencia.
Aunque, todas estas teorías sobre la evolución de la inteligencia, no me convencen demasiado. La idea por si sola me cuesta creerla, me cuesta imaginar algo notablemente más inteligente que el Homo Sapiens (a lo mejor me lo impiden ver mis propias limitaciones). Creo que una inteligencia más avanzada que la nuestra se caracterizaría por ser más justa, sutil, adaptable y previsora, anticiparía muchas acciones intermedias para llegar antes a un resultado más preciso ahorrando recursos.
Conclusión para los humanos, vivimos porqué creemos que tenemos unos objetivos en la vida y no dejamos de justificar su continuidad buscando constantemente excusas. Por no mencionar que nos vemos atrapados en la dinámica de la sociedad y la rutina de nuestras necesidades biológicas. Muy probablemente, si no tuviéramos deseos y un tremendo miedo a la muerte (Se explica porque es algo desconocido e irreversible que nos quita nuestra capacidad de control. Además de atentar contra el instinto de supervivencia incrustado en nuestro ADN y en cada una de nuestras células -en realidad sólo somos el resultado de un esfuerzo colectivo de millones de seres vivos diminutos que nos usan como a un Gundam- .), ya nos hubiéramos suicidado todos al constatar que la vida y la existencia no tienen ningún propósito lógico. Por eso la distracción, el entretenimiento y la ignorancia son el perfecto bálsamo contra nuestras intenciones de darnos cuenta de lo depresivo que es un mundo sin razón de ser.
El Universo no pierde nada por desaparecer porque tampoco gana nada existiendo. Si nada existiera no sufriríamos por problemas ni nada importaría. Entonces, ¿cuál es nuestra excusa, qué queremos conseguir como especie? La respuesta a esta pregunta no existe, debemos crearla y convencernos de ella.
Lo siento por el tostón u.u
anot
Por aclarar conceptos:
La robótica y la Inteligencia Artificial NO son lo mismo, ni de lejos.
Y la existencia de una IA no implica conciencia propia, ni mucho menos.
(Los animales tienen inteligencia y no tienen, o no está demostrado, que tengan conciencia de sí mismos).
Creo que Munsk y sus amigos se están flipando un poquito.
Vamos, a no ser que efectivamente hayan conseguido recrear una IA consciente, que lo dudo.