Mucho se ha hablado de las posibilidades de la Inteligencia Artificial, pero los científicos Babak Hojat y Nigel Duffy opinan que el próximo paso irá mucho más allá de lo que se había logrado hasta ahora. Su empresa, Sentient Technologies, está desarrollando diversos sistemas de computación "consciente", un concepto que logra que grandes sistemas de computación logren resolver problemas complejos nutriéndose de grandes cantidades de datos.
La unión de disciplinas como la Inteligencia Artificial y el Big Data se convierten en bases de este tipo de ordenadores. La computación "consciente" trata según Duffy de unos sistemas que "son conscientes, tienen percepciones, y tienem implicaciones en la autonomía [de esos sistemas]". Sin embargo, avisan estos emprendedores, esa idea está lejos de la imagen que se proyectaba en Terminator con Skynet.
Estos dos expertos han logrado captar el interés de numerosas empresas, y de hecho ya han logrado completar una ronda de inversión con 143 millones de dólares. Los logros anteriores de sistemas como Deep Blue al ajedrez, Fell Omen al póker o Watson en Jeopardy se quedan en minucias según estos emprendedores, que afirman que "aún no hemos visto nada".
Más allá de las redes neuronales
Las redes neuronales son eficientes a la hora de aprender a reconocer patrones específicos, pero el siguiente paso son los Algoritmos Evolucionarios (EA), que usan mutaciones para crear pilas de soluciones posibles en distintos servidores, cada uno de los cuales califica esas soluciones. A partir de todas ellas un "coordinador evolucionario" compara las soluciones y envía la mejor de ellas para que se valide con un gran conjunto de datos (Big Data) que nunca había analizado o procesado antes y con el que esa solución elegida debería funcionar a la perfección.
Hojat afirma que "la distribución masiva de la Inteligencia Artificial puede resolver problemas al distribuir ese procesamiento de forma masiva. No necesitamos nuevas tecnologías para lograrlo, sino que solo necesitamos utilizar mejor el potencial desaprovechado de recursos que ya tenemos". Este científico asegura que no existe el problema de que el sistema "despierte" como temía Stephen Hawking, y cree que su empresa será capaz de resolver el tipo de tareas que un "cerebro gigante" podría llevar a cabo.
Actualmente Sentient Technologies está utilizando sus soluciones en campos como las transacciones financieras y la investigación médica, pero esperan que a corto plazo cualquier empresa pueda utilizar estos desarrollos a la hora de tomar decisiones o realizar predicciones, incluyendo la detección del fraude, la seguridad pública o el comercio electrónico.
Vía | EETimes
En Xataka | ¿Sin apocalipsis no hay ciencia-ficción que valga (o venda)?
Ver 13 comentarios
13 comentarios
royendershade
"no existe el problema de que el sistema despierte"
Es decir, que no es un sistema consciente. A dia de hoy, según lo que sabemos es imposible hacer un sistema plenamente consciente, y el problema es discernir hasta que punto puede haber consciencia sin libertad... Más adelante, ya veremos, pero de momento nos faltan bastantes mecanismos por comprender, dado que ni siquiera se puede demostrar (siempre de momento) matematicamente que sea posible construir un sistema consciente y libre, tal y como entendemos consciencia y libertad.
eufrasio
Al decir lo de Skynet en la misma noticia ya les chafa lo que seria la mayoria de comentarios de esta web.
vuler
"Evolutionary algorithm" no se traduce como "algoritmos evolucionarios", sino como "algoritmos evolutivos".
Dicho esto, no he leído sus trabajos, pero no veo de dónde saca Javier Pastor que trabajen en un sistema de "computación "consciente". Si ves el vídeo, hablan precisamente de que cuando les preguntan siempre responden de que nada tiene que ver con ningún tipo de inteligencia autónoma o consciente.
Los algoritmos evolutivos no son nada nuevo, llevan ya muchos años utilizándose. La novedad en este caso parece que radica en que utilizan una metodología especial para distribuir dicho algoritmo evolutivo entre los distintos nodos de una plataforma distribuída. Y deben hacerlo así porque están aplicando estos algoritmo a un gran volumen de datos (Big Data).
De lo que se trata aquí es dar dar solución a problemas que en principio no son triviales o fáciles de resolver para las personas. Desde la toma de decisiones sobre en sistemas financieros a la predicción del tiempo. De todos modos con este tipo de soluciones, aun siendo válidas, la máquina en ningún momento podrá indicar los motivos que le llevaron a tomar una u otra decisión (no existe un razonamiento).
aps
un modelo que se entrena, pero a lo bestia
niloxx
Esto ya da bastante cague. Supongamos que tenemos una maquina que opera a una escala grande, pongamos planificación de recursos estatal (locura? Leer Yo, Robot de Asimov). La máquina prueba sus propias soluciones cotejando resultados, y se da cuenta de que ayudar a sectores que no generan beneficios (jubilados, por ejemplo) supone pérdidas, y planifica una serie causal que concluya en minimizar la carga económica de este sector. El caso es que, normalmente, las mejores soluciones matemáticas no son muy humanas...
AlexS
Reglas básicas del periodismo moderno:
""=no
ordenadores "conscientes" = ordenadores no conscientes
lluisdavidgala
Que venga de una vez Therminator, que para ver el mundo que tenemos!
janbatty
Es interesante que alguien se pueda plantear estas paradojas cuando aún no existe un consenso pleno y consolidado sobre cuando los seres humanos adquirimos consciencia de nosotros mismos.
Lo que nos distingue a los humanos de "simples seres pensantes" es la Consciencia Social, que se desarrolla entre los 3 y los 5 años de edad, y que nos permite darnos cuenta si nuestros patrones de aprendizaje (y nuestra percepción de los mismos) encaja en las estructuras sociales convencionales.
Llegar a plantearse que sucedería en caso que un sistema de Inteligencia Artificial fuera consciente de si mismo, es equivalente a plantearse que sucedería si los niños de una guardería no quisieran jugar con nuestro hijo. Sólo importaría en caso de que él nunca comprendiera el motivo por el cual los demás no lo ven como un miembro más.
En el momento que se entiende la diferencia, uno empieza a ser consciente de su singularidad.
Para los amantes de la ciencia ficción os sugiero "WarGames" (1983, Dir. John Badham), dónde se recrea de modo bastante fidedigno el proceso de aprendizaje de un proceso básico de Algoritmos Evolutivos...
Es decir, incluso una máquina sin consciencia propia puede aprender mediante un sistema de ensayo y error, sin que este tenga que ser real.