El círculo infinito, o por qué aún no tenemos los coches autónomos que nos habían prometido

El círculo infinito, o por qué aún no tenemos los coches autónomos que nos habían prometido

Elon Musk lleva desde 2014 prometiendo la conducción 100% autónoma y segura; es decir, un nivel 5 SAE. En 2017 pronosticó que llegaríamos a ese punto en 2019, y ese mismo año aludió a 2020 como el momento definitivo para dejar de prestar atención al volante (también Honda o General Motors, entre otros).

Lo cierto es que estamos en el año 2022 y un sistema de nivel 3 que funciona bajo ciertas circunstancias –cortesía de Mercedes-Benz– es lo más cerca que estamos de esa utopía. En medio del camino, la dificultad de desarrollar una tecnología capaz de superar situaciones imprevisibles y que arroja una importante pregunta: ¿Cuál es el margen de error tolerable?

La pescadilla que se muerde la cola

Audi

La conducción autónoma se enfrenta a lo que comúnmente conocemos como la pescadilla que se muerde la cola.

Un marco legal en pañales en la mayoría de mercados, donde Alemania destaca precisamente por ser todo lo contrario. El hecho de que la conducción semiautónoma esté desincentivada bebe directamente de la ausencia de unas leyes homogéneas.

Mientras que en España la conducción sin manos ni ojos solo se contempla en circuitos cerrados de pruebas, en Alemania el Drive Pilot de Mercedes-Benz ya puede asumir legalmente la tarea de la conducción. Eso sí, hasta 60 km/h y en carreteras que cumplan ciertas características.

Así, diferentes marcos legales dan lugar a ideas contrapuestas acerca de qué es capaz de hacer un vehículo semiautónomo hoy en día.

Ni el exceso de confianza (“me puedo echar la siesta con el Autopilot activado”, cortesía de algunos tiktokers) ni la falta de ella (“los coches autónomos son peligrosos”) promueven la penetración de esta tecnología en la esfera automotriz.

En este sentido, el marketing ha actuado como arma de doble filo: las marcas nos han prometido, año tras año, altos niveles de autonomía que no se han cumplido, ensombreciendo los avances y desincentivando el interés por parte de los consumidores.

La vaca en medio de la carretera que no quiere moverse: la dificultad de fabricar un sistema a prueba de imprevistos

En 2018 se viralizó el vídeo de un vehículo autónomo en pruebas de Waymo que, tras varios intentos infructuosos, acaba desistiendo de su objetivo de incorporarse a una autopista.

El hecho de que fuera una máquina y no un humano imposibilitó la compleja incorporación: el sistema no iba a ejecutar una maniobra arriesgada que un conductor humano sí hubiera hecho. O me dejas incorporarme o pego un volantazo, había sido la respuesta humana.

Aquí el primer reto del aprendizaje de la máquina: aprender a convivir con una conducción imperfecta y además desquiciada en muchos casos.

A esto se le añade la complejidad técnica de desarrollar sistemas preparados para imprevistos. Y si no, que se lo digan a Tesla y a su ejército de ‘beta testers’.

Mientras que aproximadamente el 80% de la conducción autónoma es relativamente simple (mantenimiento de carril, distancia de seguridad, etc.), el siguiente 10 % implica situaciones más difíciles, como rotondas y cruces complejos, explica a The Guardian el director de investigación de Thatcham Research, Matthew Avery.

El último 10 % restante es lo realmente difícil de lograr: que la IA dé respuesta a situaciones imprevistas, como que un niño salga de detrás de un coche, un animal se quede parado en medio de una carretera o simplemente se enfrente a una rotonda de varios carriles y tráfico denso.

Cabras

La primera víctima mortal de un vehículo autónomo dejó claro que la industria se ha estancado en ese punto: Elaine Herzberg cruzaba con su bici por un paso no señalizado, con poca luz, y casi hasta el mismo momento en el que el Volvo de Uber la arrolló, el sistema estuvo intentando determinar qué era Elaine.

¿Un vehículo? ¿Una bicicleta? ¿Un objeto? Así, la conducción autónoma es de confianza hasta que ocurre un accidente grave, todo se paraliza, y vuelve a empezar.

Policia

Fotograma grabado por el Volvo XC90 de los segundos previos al accidente mortal. Foto: Tempe Police.

En este sentido, en la industria del software, trabajar con un margen de error pequeño puede resultar aceptable hasta que se desarrolla la versión final del programa.

Cuando el software conduce coches y puede provocar accidentes mortales, la definición de lo que es aceptable se reduce considerablemente. La pregunta es qué nivel de fiabilidad tenemos que exigir a esta tecnología para implementarla en el mundo real.

Tesla Fsd

“La seguridad no consiste en que algo funcione bien la mayoría de las veces. La seguridad tiene que ver con el caso excepcional en que algo no funciona como es debido”, explica a The Guardian Philip Koopman, profesor de Ingeniería Eléctrica y de Computadores en la Universidad Carnegie Mellon.

“Tiene que funcionar el 99,999999999 % de las veces. Las compañías de vehículos autónomos todavía están trabajando en los primeros nueves, y faltan muchos nueves más. Por cada nueve, es 10 veces más difícil de lograr”, asevera.

El reto de fabricar y poner a prueba los ‘ojos’ de los coches autónomos

A la complejidad de desarrollar un sistema capaz de lidiar con imprevistos, se le une la parte de ponerlo a prueba en situaciones adversas, y eso incluye al clima.

Si Waymo tiene activo en Fénix, Arizona, su servicio autónomo de taxis (y pronto también estará en San Francisco), es por su amable climatología: temperaturas que no bajan de los 3 grados centígrados y sol la mayor parte del año.

El reto de desplegar una conducción verdaderamente autónoma pasa por poner a prueba los sensores LIDAR, los radares y las cámaras bajo la lluvia, el viento, la niebla… De hecho, el Drive Pilot de Mercedes-Benz no se puede activar si hay lluvia fuerte, una nevada o niebla densa.

Porque uno de los mayores enemigos del coche autónomo es la nieve debido a su capacidad alterar la profundidad espacial que miden los sensores.

Drive Pilot Weather

El coste de los ‘ojos’ con los que el sistema semiautónomo es otra barrera que fabricantes como Tesla y recientemente Toyota han querido derribar gracias a cámaras de bajo coste.

Hace tiempo que Elon Musk rebajó la importancia de los LiDAR como respaldo para las cámaras: “Los humanos conducen a través de los ojos que ven y un cerebro compuesto por redes neuronales biológicas que analizan la información. No hay razón para que un vehículo autónomo no funcione de la misma manera, con cámaras neuronales de silicona y redes que procesan la información”, escribió Musk en Twitter.

El objetivo de este movimiento no es otro que el de rebajar costes. Un radar avanzado de alta resolución puede costar unos 100 dólares, un radar simple unas pocas decenas de dólares y un LiDAR miles de dólares.

Pero el problema de prescindir de este elemento es que también se prescinde de una imagen de mayor resolución en distancias cortas y de visibilidad en condiciones donde las cámaras encuentran más dificultades.

Aquí es donde chocan la asequibilidad y la seguridad, y por el momento no se ha demostrado que prescindir del LiDAR no comprometa la seguridad de los usuarios de la vía.

Y es que al final, el objetivo último de la conducción 100 % autónoma es el de salvar vidas en la carretera. Para ello la industria tecnológica y automotriz deberán salvar múltiples obstáculos que incluyen la aceptación por parte de los humanos de que una máquina tome decisiones vitales para ellos, bajo la duda de que no sea capaz de hacerlo.

Autopilot

Nos encontramos en un escenario en el que el coche autónomo funciona de forma casi perfecta en entornos controlados, sin tráfico, con cielos azules y sin factor sorpresa de por medio, demostrando que es capaz de sustituir a un humano en operaciones rutinarias.

Sin embargo, el reto llega ante lo imprevisible; a fin de cuentas ante lo humano, ese 0,00001 % de margen de error que, aunque mínimo puede resultar fatal.

También a nivel de desarrollo tecnológico, pues deberá existir un buen maridaje entre software avanzado y costes. Y en este sentido, estamos lejos de los objetivos y las fechas que los propios fabricantes se han marcado.

La IA deberá arrojar luz sobre ese porcentaje del que habla Avery, para llegar a determinar antes de que sea tarde qué es esa figura que cruza a oscuras por un paso sin señalizar, o qué hacer con esa vaca parada en medio de la carretera.


La noticia

El círculo infinito, o por qué aún no tenemos los coches autónomos que nos habían prometido

fue publicada originalmente en

Motorpasión

por
Victoria Fuentes

.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *