GIF: Thatcham Research / YouTube

Lo primero que sentí al activar el modo autopilot en un Tesla fue un incómodo homigueo de nerviosismo, la sensación de que íbamos a chocar de un momento a otro. Con el tiempo me acostumbré y aprendí a calmarme como todos. Este vídeo explica exactamente porque eso se ha convertido en un problema.

El v√≠deo no es de un YouTuber cualquiera, sino de una compa√Ī√≠a brit√°nica llamada Thatcham Research y dedicada precisamente a investigar la seguridad de los veh√≠culos para las compa√Ī√≠as de seguros. Sus conclusiones explican perfectamente qu√© est√° pasando con los Tesla (o m√°s bien con sus conductores) y por qu√© √ļltimamente vemos tantas noticias protagonizadas por los autom√≥viles de la compa√Ī√≠a teniendo accidentes en modo aut√≥nomo.

Tesla lleva a√Īos insistiendo con todo tipo de avisos, tutoriales y descripciones cu√°les son exactamente las limitaciones del autopilot, qu√© es lo que puede hacer, y c√≥mo la responsabilidad final es siempre del conductor, que debe mantenerse alerta en todo momento.

Advertisement

Pero hay algo que todo propietario de un Tesla sabe, es que el autopilot no siempre sigue la línea que dicen en los doicumentos corporativos. Todo va bién hasta que deja de ir. Es fácil terminar con la sensación de que todo está bajo control cuando el vehículo sigue mansamente el de enfrente en mitad del tráfico. Todo indica que puedes relajarte. Todo va bien. Este era el futuro que nos prometían...

Entonces, de repente, salta una alerta y el Tesla te conmina a que pongas las manos en el volante, y mejor que lo hagas r√°pido.

Esto es lo que han puesto a prueba exactamente los expertos de Thatcham Research. Las condiciones de la prueba son ideales, y sin embargo el autopilot no es capaz de evitar la colisión. La secuencia siempre es la misma:

  • Un Tesla en modo autopilot sigue a otro coche en una pista de pruebas
  • El coche de delante cambia de carril
  • De repente, el Tesla se encuentra con otro veh√≠culo parado en el carril por el que estaba circulando.
  • El Tesla no le da tiempo a frenar ante el obst√°culo s√ļbito.
  • Se la pega.
Screenshot: Thatcham Research / YouTube

Advertisement

Para la prueba, los especialistas usan una maqueta blanda que impide que el Tesla sufra da√Īos. En un v√≠deo de la BBC, Matthew Avery explica exactamente cu√°l es el problema de este tipo de accidente: el conductor conf√≠a demasiado en el sistema y se relaja hasta el punto de que no logra reaccionar a tiempo. Desde Tesla explican que sus autom√≥viles no son 100% a prueba de colisiones y que los clientes de la compa√Ī√≠a entienden que no prestar atenci√≥n puede significar un choque.

Tesla siempre ha explicado que el sistema Autopilot no hace al vehículo inmune a todos los accidentes que pueden existir. La situación que describe Thatcham no sería un problema si el conductor estuviera atento y usara el sistema correctamente.

Los comentarios que recibimos de nuestros clientes muestran que tienen una comprensi√≥n muy clara de lo que es Autopilot, c√≥mo usarlo correctamente y en qu√© consiste. Cuando se utiliza el piloto autom√°tico, se recuerda continuamente a los conductores su responsabilidad de mantener las manos en el volante y mantener el control del veh√≠culo en todo momento. Esto est√° dise√Īado para evitar el uso indebido por parte del conductor, y se encuentra entre las salvaguardas de uso incorrecto m√°s potentes que existen hoy en d√≠a.

Advertisement

El problema es que lo que BBC describe como un exceso de confianza por parte del conductor se ha convertido en una situaci√≥n muy com√ļn. Solo en el √ļltimo mes ha habido dos casos, unos pocos meses antes hubo un accidente fatal y en 2016 otro m√°s. Luego est√° el famoso caso de Gao Yaning que lleva dos a√Īos en los tribunales. El coche qued√≥ tan destrozado que no ha sido posible comprobar si realmente el Autopilot estaba encendido.

Photo: Departamento de Policía de Utah

Por mucho que Tesla asegure que los conductores están más que advertidos, los casos se acumulan y es imposible no comenzar a percibir una tendencia más allá de un conductor usando el sistema de manera incorrecta. Además la propia Administración Nacional de Seguridad de tráfico en la Carretera escribía en su informe de 2016 que Tesla estaba al tanto de que los conductores podían despistarse al conectar el autopilot.

Advertisement

Del mismo modo, es injusto echarle la culpa a Tesla. La compa√Ī√≠a se desga√Īita avisando y pone todas las salvaguardas que puede para evitar el abuso del sistema. ¬ŅQuiz√° los seres humanos sencillamente no estamos hechos para usar sistemas de conducci√≥n guiada?

¬ŅPuede hacer m√°s? Sus advertencias han cambiado a lo largo del tiempo. Incluso podr√≠a instalar un sistema que monitorice los ojos del conductor y desactive el autopilot si no est√° prestando atenci√≥n, algo que ya tiene General Motors en su modo Supercruise y que Tesla decidi√≥ no implementar.

Advertisement

Al final llega el momento en el que te preguntas si los coches aut√≥nomos son m√°s o menos seguros que los convencionales, ves las cifras de accidentes de los autos con modo solo manual y todo comienza a difuminarse a tu alrededor. Esta es una cruz que le ha tocado cargar a Tesla por elegir liderar la llegada de esta tecnolog√≠a a la carretera. Algo nos dice adem√°s que la cruz se har√° m√°s pesada a medida que modelos como el Tesla Model 3 popularicen a√ļn mas el autopilot. La conclusi√≥n final es que quiz√° tenemos demasiada libertad al volante y que es necesaria m√°s regulaci√≥n. Eso es precisamente lo que est√° haciendo ahora la FTC y la raz√≥n por la que compa√Ī√≠as como Thatcham Research realizan estas pruebas en primer lugar.