EEUU tacha a Tesla de “irresponsable” por utilizar a los clientes como beta-testers del nuevo Autopilot
Tesla está a punto de lanzar de forma generalizada en EE.UU el Autopilot Full Self-Driving o Conducción Autónoma Total, aunque aún en versión beta. Una estrategia que la Junta Nacional de Seguridad en el Transporte (NTSB por sus siglas en inglés) considera “irresponsable“.
Esta variante mejorada del Autopilot de los coches eléctricos de la marca californiana lleva cerca un año siendo probada por algunos propietarios seleccionados. Y básicamente amplía sus funciones, incluyendo la posibilidad de conducir también en ciudad y sumando el reconocimiento de semáforos y señales de stop.
Pero ahora que su lanzamiento a nivel global se acerca, está despertando las críticas de la administración y organismos de seguridad estadounidenses. De hecho, este sistema está siendo investigado por la Administración Nacional de Seguridad del Tráfico de EE.UU (NHTSA), tras verse envuelto en varios siniestros viales.
Conducción autónoma total “engañosa” y en versión beta
A principios del presente mes de septiembre, Elon Musk anunció en su cuenta de Twitter que el Full Self-Driving Beta 10 se lanzaría el día 10, pero solo para unos cuantos conductores, para pasar a estar disponible dos semanas después mediante actualización remota para todos aquellos clientes que lo hayan contratado.
FSD Beta 10 rolls out midnight Friday next week
— Elon Musk (@elonmusk) September 2, 2021
Looks promising that Beta 10.1, about 2 weeks later, will be good enough for public opt in request button
— Elon Musk (@elonmusk) September 2, 2021
Es decir, que a priori en unos días se lanzará mediante descarga y de forma global. Según recoge Electrek, Musk aseguró que “necesitarían unas semanas más para ajustarlo y corregir errores“.
Pero la NTSB, una agencia federal centrada en la seguridad de los vehículos y el transporte, tacha de imprudente este movimiento. Así lo ha declarado su directora, Jennifer Homendy en una entrevista para Wall Street Journal y de la que se hace eco también Electrek.
“Tesla no debería implementar la herramienta de conducción en ciudad antes de abordar lo que la agencia (NTSB) considera deficiencias de seguridad en esta tecnología. Los problemas básicos de seguridad deben abordarse antes de expandirlos a las calles en las ciudades y otras áreas”.
En definitiva, no ven con buenos ojos que Tesla esté utilizando a los propietarios de sus coches eléctricos como beta-testers de esta tecnología y en carretera abierta.
Por otro lado Homendy considera que denominar “Conducción autónoma total” a este sistema es “engañoso e irresponsable“. Y no le falta razón, pese a la denominación, se trata de una avanzada tecnología de asistencia a la conducción, pero de nivel 2 de SAE. Es decir, que el conductor debe mantener la atención al volante en todo momento.
No es la primera vez que Tesla utiliza a sus clientes como beta-testers: ya ocurrió cuando lanzaron el Smart Summon en una versión preliminar. Varios usuarios denunciaron el hacer de este sistema, que aparca o desaparca de forma autónoma el coche y se puede “invocar” a varios metros. Y también se llevó un informe negativo de Consumer Reports.
Además, como algunos propietarios seleccionados ya disfrutan del Full Self-Driving en su Tesla, también han mostrado algunas deficiencias del sistema. Por ejemplo, a la hora de detectar señales u obstáculos, por confundir el sol con un semáforo o el cartel de un Burger King con una señal de stop.
Pese a ello, Tesla argumenta que las fallas se deben al mal uso de la tecnología por parte de los usuarios. De hecho, fue retirado en algunos coches “donde los conductores no prestaron suficiente atención a la carretera”, explicó en un tweet Elon Musk. En el mismo presumió además de que no se habían registrado accidentes con el nuevo Autopilot FSD.
FSD Beta has now been expanded to ~2000 owners & we’ve also revoked beta where drivers did not pay sufficient attention to the road. No accidents to date.
Next significant release will be in April. Going with pure vision — not even using radar. This is the way to real-world AI.
— Elon Musk (@elonmusk) March 12, 2021
Los sistemas de conducción semiautónoma, en el punto de mira
A las criticas de la NTSB, se suma que la Administración Nacional de Seguridad del Tráfico (NHTSA) precisamente ha abierto una investigación centrada en el Autopilot de Tesla.
La misma se basa en hasta 11 accidentes de tráfico registrados desde 2018 en los que se vieron involucrados coches Tesla con el Autopilot activado y un vehículo de emergencia estacionado en la calzada. En dichos siniestros hubo un muerto y 17 heridos.
Según la agencia en estos incidentes el sistema no fue capaz de detectar luces de advertencia, bengalas, conos y otros elementos de señalización. Y todo ello teniendo en cuenta que se trata de una versión anterior y que solo permite la activación en vías rápidas.
Lo cierto es que este tipo de tecnologías siguen en entredicho en los albores de la conducción autónoma. No en vano, recientemente dos conductores han perdido la vida circulando con esta tecnología activada, en este caso en dos coches de la marca china NIO.
En su caso el sistema se denomina Navigate On Pilot (NOP) y, según los estudios preliminares, aparentemente no frenó ante un obstáculo.
De hecho, la NHTSA no se está centrando solo en el Autopilot de Tesla en esta investigación, pues poco después la amplió también a otros sistemas similares que equipan los automóviles de hasta 12 marcas, entre las que se incluyen Honda, BMW, Toyota o Ford.
En Motorpasión | Hedy Lamarr, la actriz y tenaz inventora que sentó las bases de los coches autónomos combatiendo el nazismo
–
La noticia
EEUU tacha a Tesla de “irresponsable” por utilizar a los clientes como beta-testers del nuevo Autopilot
fue publicada originalmente en
Motorpasión
por
Alejandra Otero
.