Un Tesla con el Autopilot FSD activado frena sin razón en un túnel y provoca un accidente en cadena: el problema no es del coche, sino nuestro
El pasado 24 de noviembre, Día de Acción de Gracias, hubo uno de esos accidentes en cadena en el puente de la Bahía de San Francisco. Hubo ochos coches implicados y nueve heridos leves.
La causa, según se puede ver en los vídeos de vigilancia obtenidos por The Intercept (se pueden ver en su web y en este tuit), se debe a un Tesla Model S que se detuvo en medio de su carril sin aparentemente razón alguna.
El accidente está siendo investigado por la Administración Nacional de Seguridad del Tráfico en Carretera (NHTSA, por sus siglas en inglés) después de que el conductor del Tesla Model S explicara a la policía que el vehículo funcionaba con el sistema de conducción automatizada, conocido como FSD (Full Self Driving) o “conducción autónoma total” activado.
Desde 2016, la NHTSA ha abierto al menos tres docenas de investigaciones especiales sobre accidentes en los que se vieron implicados algún Tesla y en los que probablemente un sistema de ayuda a la conducción estaba activado, sea AutoPilot o FSD. Hasta ahora, se han atribuido 19 muertes a estos accidentes.
I obtained surveillance footage of the self-driving Tesla that abruptly stopped on the Bay Bridge, resulting in an eight-vehicle crash that injured 9 people including a 2 yr old child just hours after Musk announced the self-driving feature.
Full story: https://t.co/LaEvX9TzxW pic.twitter.com/i75jSh2UpN
— Ken Klippenstein (@kenklippenstein) January 10, 2023
De nuevo, un Tesla en modo conducción semiautónoma y un accidente. No es que sea algo que ocurra a menudo, pero sí que se le suele dar mucho eco. Y no es porque se trate de arremeter contra Tesla porque sí, aunque el nombre de esos sistemas es muy discutible, sino de recordar una vez más que los sistemas de ayudas a la conducción no pueden conducir el coche solos sin la supervisión continua del conductor, por muy AutoPilot o Full Self Driving que se llamen.
En el caso de Tesla son sistemas de conducción autónoma de nivel 2 sobre una escala de 5, y se considera conducción autónoma completa a partir del nivel 4.
El problema no es el Tesla FSD, sino el humano que no está al volante
A priori, el accidente no se debe a un fallo mecánico del coche, como una batería que se agota e impide que el coche avance. Y es que el conductor del Tesla, según informa la policía, se fue conduciendo su coche.
Según ese mismo informe de la policía, el Tesla cambió al carril de la izquierda y empezó a reducir rápidamente su velocidad hasta detenerse. Y es cuando se desencadenó la colisión en cadena. Es decir, da la sensación que el Tesla, por la razón que sea, interpretó que debía reducir su velocidad y apartarse hacia el arcén más cercano, que en este caso no existe.
Claramente, la interpretación del coche era errónea y en esas condiciones un conductor atento tendría que haber retomado el control del coche viendo que el sistema de ayuda a la conducción estaba deteniendo el coche.
Se puede decir sin riesgo de equivocarnos mucho que el conductor estaba muy distraído, pues en el informe no se hace mención a que haya perdido el conocimiento o le haya dado un mareo y no pudo controlar el coche.
Se podrá echar la culpa al sistema que falló. Se podrá echar la culpa a Elon Musk y Tesla, que por muchas advertencias que se debe estar vigilante al usar el FSD (llegó incluso a limitar su uso a quienes demostraban ser “buenos conductores”) o el Autopilot, al mismo tiempo les ponen nombres que aluden a funciones que no existen. El verdadero problema no son tanto los sistemas de ayudas a la conducción, ya sean de Tesla o de cualquier marca, ni de sus nombres, sino nuestro, como seres humanos.
Los seres humanos simplemente no somos buenos supervisando sistemas que hacen la mayor parte del trabajo de una tarea y permanecer listos para hacerse cargo de esa tarea con un mínimo o ningún aviso.
O lo hacemos o no lo hacemos, pero estar continuamente atentos sin hacer nada, se nos hace muy difícil, como recuerda Jason Torchinsky, citando el estudio de psicología de N.H. Mackworth.
Es más, las ayudas a la conducción que no son realmente una conducción autónoma completa, solo consiguen reducir nuestro nivel de pericia y concentración al volante. Es decir, nos hacen peores conductores.
–
La noticia
Un Tesla con el Autopilot FSD activado frena sin razón en un túnel y provoca un accidente en cadena: el problema no es del coche, sino nuestro
fue publicada originalmente en
Motorpasión
por
Daniel Murias
.