En los centros de datos de Tesla se entrena a la IA para que se adapte a las diferentes condiciones de conducción
Unos empleados afirman que, deliberadamente, esa IA es educada para que ignore ciertas señales
El segmento de la automoción tiene dos grandes objetivos por delante. También dos grandes retos. Por un lado, conseguir que los vehículos de combustión sean cosa del pasado, algo que se antoja clave de cara a conseguir las metas de descarbonización a nivel global. Por otro, que los coches puedan conducir 'solos'. Y una de las empresas que más empeño está poniendo tanto en la popularización del coche eléctrico como en su automatización en carretera es Tesla.
Sus fábricas -Gigafactorías- son imponentes. Lo sabemos bien, ya que recientemente estuvimos en la fábrica de Tesla en Berlín a la que no tantos han tenido acceso. Pero más allá de las cuestiones mecánicas inherentes a un coche, en Tesla tenemos el software que se encarga no sólo de controlar todos los parámetros del vehículo, sino de leer todo lo que recogen las cámaras e interpretarlo de cara a los automatismos y, en última instancia, el Autopilot.
Ese sistema no es infalible, lo que ha provocado algunos accidentes estos últimos años, pero más allá de los fallos de software y algún que otro bug, si un Tesla no hace caso a algunas señales es… porque está programado para ello.
El Autopilot de Tesla pasa de algunas señales
En la segunda mitad de 2022, Tesla anunció que iba a prescindir de radares y sensores en sus coches. Fue una medida que nos tomó a todos a pie cambiado debido a que esos radares, junto al trabajo de las cámaras, son los que más eficientemente pueden 'leer' la situación de la vía en tiempo real.
Las consecuencias no tardaron en aparecer, con accidentes que podrían haberse evitado en el sistema de conducción semiautónoma si los coches siguieran contando con ciertos sistemas. Hace unos meses, la Administración Nacional de Seguridad de Tráfico en Carretera tenía en su haber 1.200 reportes de accidentes notificados por Tesla, 222 de ellos en los que el sistema de conducción autónoma había estado involucrado.
Informes como los publicados en The Wall Street Journal apuntaban que los Tesla chocaban con "objetos claramente visibles". Relacionado con esto, tenemos el equipo de software que se dedica a programar los sistemas de conducción autónoma y ayuda en carretera de los coches de Elon Musk.
El proceso para que un coche conduzca solo o asista en un gran porcentaje a la conducción es complicado. Las cámaras recogen imágenes que son enviadas al ordenador central, quien las analiza y envía una orden a los sistemas de seguridad. Todo ello debe hacerse en una porción de tiempo ínfima porque el tiempo de reacción en carretera es vital.
¿Cuándo debe empezar a frenar antes de un STOP en condiciones de seco? ¿Y si está lloviendo? ¿Y si nieva? Son algunas de las preguntas que el software se hace y ejecuta, pero todo eso está programado de antemano por un equipo cuyo grueso se encuentra en las instalaciones que Tesla tiene en Buffalo, Nueva York.
Si nosotros estuvimos viendo cómo trabajan los más de 12.000 empleados y las numerosas máquinas en la Gigafactoría de Berlín, el equipo de Business Insider ha podido ver cómo es el trabajo de los que se encargan del software. Pero no en el centro de datos, claro, sino a través de las declaraciones de 17 trabajadores actuales y anteriores de dicho segmento de Tesla.
En concreto, se trata de los analistas de datos de Tesla. Son los encargados de revisar miles de horas de material de vídeo recogidos por los Tesla que circulan por todo el mundo, así como los recogidos en las pruebas de la empresa. En el proceso, anotan la casuística de situaciones y van 'enseñando' gradualmente a la IA a comportarse como un conductor humano.
"A veces es monótono. Puedes pasarte ocho horas al día durante meses simplemente etiquetando líneas de carril y aceras en miles de vídeos", apunta uno de los extrabajadores de uno de estos equipos. No parece el trabajo más estimulante, pero es necesario para el sistema. Y es un trabajo que obliga a los empleados a tener conocimientos de la normativa de varios países.
El motivo es que pueden trabajar con datos de cualquier país en un único flujo de trabajo (es decir, puede haber vídeos de Estados Unidos, y otros países en un único proyecto). Y algo que comentaron varios de estos trabajadores y extrabajadores es que "la idea es entrenar el sistema para que conduzca como lo haría un humano, no como un robot que se limita a seguir las reglas".
¿Qué implica esto? Pues que, como comentaron siete de estos empleados, se les pidió que ignoraran las señales de "no girar con una luz roja" o "no girar en U", lo que significa que no entrenarían al sistema para que se ajustara a esas señales. Hace unas semanas salió a la luz un vídeo de un Tesla acortando en un atasco al invadir un carril prohibido para ponerse delante, tal y como hacen humanos de carne y hueso en ocasiones.
Según estos trabajadores, "es una mentalidad de dar prioridad al conductor", pero el problema no es sólo que, al parecer y según estos testimonios al medio norteamericano, se entrene deliberadamente al Autopilot para ignorar señales, sino lo que se ve en esos centros de análisis y etiquetado de datos.
Polémicas en el trabajo y la violación de la intimidad
Pero claro, trabajar con las imágenes que captan las cámaras de vehículos privados tiene un efecto secundario: la privacidad. En abril del año pasado, saltaba la bomba: trabajadores de Tesla habían compartido imágenes sensibles grabadas por los coches de clientes. En salas de chat de los trabajadores se habían compartido imágenes privadas captadas por las cámaras (por ejemplo, el interior de los garajes de la gente).
Se dijo que los datos de los particulares eran anónimos, pero resulta que en el interior de uno de esos garajes había un coche-submarino Lotus Esprit que había aparecido en 'La espía que me amó', la cinta de James Bond de 1977. ¿Y quién era el dueño de ese submarino y, por tanto, del garaje? Elon Musk, propietario de Tesla.
También había material sensible, siendo un ejemplo un niño que había sido atropellado por un Tesla que circulaba a gran velocidad en una zona residencial. Este vídeo en el que se vio al niño yendo por una dirección y a la bicicleta por otra se compartió a través de chats privados y corrió "como un reguero de pólvora", según un exempleado.
Por eso, Tesla empezó a añadir marcas de agua a las imágenes antes de que éstas fueran procesadas por los centros de datos en un movimiento para pillar al operario que realizara las filtraciones. Y, hablando de monitorizar empleados, en el artículo de BI también se puede ver que la compañía vigila al milímetro lo que hacen estos trabajadores.
Con una medida llamada 'Flide Time', la empresa puede hacer un seguimiento activo de los anotadores. Por ejemplo, el tiempo que los trabajadores pasan con el software de etiquetado abierto o la pulsación de teclas en el ordenador. El objetivo es que los trabajadores registren entre cinco y siete horas y media de 'Flide Time' al día y, aunque les falten cinco minutos para llegar al horario, se pueden enfrentar a una acción disciplinaria.
También se registraban las visitas a los baños y es algo que llevó a los trabajadores de este centro neoyorkino a lanzar una campaña sindical. Estaban cansados de "ser tratados como robots". Eso llevó al despido unos 300 trabajadores de la planta de Buffalo. Reuters, Bloomberg y Business Insider contactaron con Tesla y Musk para obtener declaraciones, pero la petición no tuvo éxito. Lo que sí se comentó desde Tesla es que fueron despedidos por bajo rendimiento
Y sí, toda la historia que rodea al trato de datos privados es interesante, pero que, al parecer, Tesla entrene su sistema para que desobedezcan algunas señales es, cuanto menos, curioso si lo que se pretende es garantizar la seguridad.
Imágenes | Tesla, Xataka
Ver todos los comentarios en https://www.xataka.com
VER 6 Comentarios