Pues parece que al final no fue el LIDAR ni ningún otro componente del coche autónomo del Uber. La culpa de que el coche hubiese atropellado y matado a Elaine Herzberg, de 49 años de edad, habría sido un fallo en la programación y configuración del software del vehículo autónomo.
The Information tuvo acceso a personas relacionadas con la investigación del accidente, quienes confirmaron que Uber había encontrado la causa del accidente, la cual se habría debido a que el software estaba ajustado erróneamente para ignorar los objetos del camino.
El sistema autónomo estaba bien, el problema fue la configuración hecha por humanos
Es decir, el coche sí detectó a Herzberg cuando cruzaba, pero "decidió" que no era necesario tomar medidas evasivas al marcarla como un falso-positivo, ya que el vehículo se encontraba configurado en el umbral del nivel más bajo.
Debido a que el LIDAR, sensores y radares detectan todo lo que sucede alrededor del coche, Uber desarrolló su software para que en éste se pudiera ajustar el nivel de sensibilidad ante los objetos de la carretera. El objetivo de esto era que el coche pudiera reaccionar y tomar acciones ante "amenazas verdaderas", es decir, ante objetos sólidos de gran tamaño y no ante bolsas u otros objetos.

El problema es que en el caso del coche que tuvo el accidente, esta sensibilidad se encontraba al mínimo, ya que precisamente se estaba probando la fiabilidad del sistema y el conductor de seguridad debería haber estado atento al camino, y no observando la pantalla del sistema como se ve en el vídeo del accidente.
Hay que destacar que esta información aún no se hace pública y no es oficial, Uber sólo mencionó que sigue trabajando con la Junta Nacional de Seguridad del Transporte (NTSB) quien en los próximas publicará un informe preliminar, y más adelante llegará el informe detallado donde se darán a conocer posibles sanciones y se determinarán responsabilidades.
Panorama complicado para Uber
Mientras tanto, Uber suspendió todas sus pruebas de coches autónomos en Estados Unidos, perdió su permiso para efectuar pruebas en Arizona y sus proveedores tratan de desmarcarse del accidente. Lo anterior se debe a que Uber en inicio dijo que muy probablemente el fallo se debió al LIDAR y no sus sistemas.
De hecho, a finales de marzo se descubrió que Uber había reducido el número de sensores LIDAR en sus coches autónomos, y también había pasado de tener dos conductores de seguridad a uno solo. Ante esto, Velodyne, el fabricante del LIDAR que usa Uber, dijo que su tecnología no debería haber sido afectada por las condiciones nocturnas.

Por otro lado, Nvidia, quien suministra las GPUs que impulsan al sistema autónomo de Uber, se distanció a finales de marzo y dijo que el fallo debió haber sido ocasionado por el software de Uber y no por el hardware.
Con toda esta información, ahora mismo parece que el problema está en la cancha de Uber, que en caso de que la NTSB confirme que fue su culpa, deberá rendir cuentas y enfrentarse ante posibles sanciones e incluso prohibiciones para seguir operando su programa de coches autónomos.
En Xataka | Este es el vídeo del momento en el que el coche autónomo de Uber atropelló y mató a una mujer
Ver 111 comentarios
111 comentarios
Escapology
¿Pero la culpa no es del conductor de seguridad? Su trabajo era vigilar la conducción del coche...
whisper5
Yo deseo el coche con conducción autónoma como el que más. Sería como tener chófer particular mientras viajo haciendo otras cosas que no sean conducir.
Pero lo cierto es que es un objetivo que no está cercano, y los experimentos de estas tecnológicas de la conducción autónoma no deberíamos pagarlos la población civil con nuestras vidas. A ningún sector empresarial se le deja lanzar al mercado productos, con riesgos para las personas, a medio desarrollar, en pruebas. ¿Por qué a estas empresas sí? Que construyan circuitos de pruebas cerrados con todas las condiciones de tráfico, climatológicas, etc. que necesiten para garantizar un mínimo grado de seguridad que ahora no pueden garantizar, y que dejen tranquilas las calles y carreteras donde circulamos los demás. En un circuito de pruebas se podrían hacer cientos de ensayos preparados cuyas condiciones podrían tardar décadas en encontrarse en la vida real. De hacerlo así, en circuitos cerrados, llegaría un momento en el que habría que realizar la transición de las pruebas desde los circuitos cerrados a las calles, pero eso momento ni es ahora ni llegará en poco tiempo. Mientras tanto que no pongan en riesgo nuestras vidas.
ampirius
Parece el árbitro del Clásico, que sabía que era falta de Luis Suárez pero igualmente dejó seguir el juego.
otario
Un consejo desinteresado a los defensores del coche.
Si como conductores humanos alguna vez os veis en la misma situación, el FSM no lo quiera, no se os ocurra decir al juez que visteis al peatón pero que como no estaba cruzando por un paso de peatones decidisteis continuar como si nada, y que aunque le atropellasteis la culpa es suya.
GAZPACHETE
Comparando con coches con conductor seguramente siga siendo más seguro esto ya que no te dan las estadisticas de atropello de los mismos en paralelo. Es decir, que en 10 años cuando todos estos problemas estén arreglados, tendremos coches autónomos para rato. Vienen para quedars. Y una vez ya conduzcan otros...¿podremos hablar de coches drones voladores sin peligro?
pableras
No no y no. La culpa es de quien ha cruzado mal, no? Ni del conductor, ni del coche ni de la tecnología. Si cruzas por donde te da la gana cuando te da la gana, pues te pueden pasar cosas como estas, no? A cualquier hora del día, en cualquier circunstancia y este quien esté detrás del volante.
Lo que no se puede hacer es buscar siempre otro culpable en vez de asumir las propias responsabilidades.
danielmendez1
Si ven el video veran que el peaton aparece de entre las sombras, es un poco tonto ponerse a buscar culpables, aunque quizas Uber si tiene algo de culpa al disminuir la capacidad de deteccion del sistema deliberadamente.
Zaxxon
Da la impresión de que algunos se cabrearían más si un vehículo autónomo atropellase mortalmente a su ser más querido, que si lo hiciese un despistado en un coche normal.
Es ridículo; las personas fallan. Y las cosas fallan porque las fabrican las personas. Es absurdo enfadarse más por un fallo humano indirecto que por uno directo. Abrazarse al "es que de una máquina espero que no falle" es un sinsentido.
patf40
Skynet
opodecano
Qué ridículo, si alguien sale en tu camino es culpa tuya?
ZellDich
en mi opinion si es como indica el articulo es culpa de huber, la solucion no puede ser nunca la mas facil, el coche al no saber si es una bolsa o una persona lo ignora y sigue.... en lugar de trabajar en como mejorar el reconocimiento de objetos lo ignoramos y ya... de todas formas hay algo extraño ya que iba en bici y ya tiene que ser malo el software para no catalogar como vehiculo....
Carlos Santamaria
Yo creo que ahora con la conducción autonoma se tiene un Tabut y un miedo, que ante algunos fallos, salen noticias en todos lados, Si precisamente el principio de la conducción autonoma es ayudarnos a reducir los accidentes de tránsito, para ayudar con los errores humanos que han cobrado millones de vidas.
black_ice
Es absurdo como algunos os empeñáis con señalar un único culpable. Está claro que varias cosas salieron mal y de no ser así el accidente no hubiese ocurrido.
darknemesisx
Grave la cosa, lo peor es que tenía una persona supuestamente para impedir esos fallos y tambien fallo por estar viendo pendejadas, a mi parecer tambien es culpa del humano en el automovil
dreeddsd
yo pienso que la culpa es tanto del conductor, por depositar toda su confianza en un sistema de conducción que aún no se haya declarado que es 100% seguro, y del peatón por no esta atento mientras cruzaba la calle