
Consumer Reports dijo el jueves que sus investigadores engañaron “fácilmente” al sistema Autopilot de Tesla para que condujera sin nadie al volante. La preocupante demostración de la publicación se produce mientras los funcionarios continúan investigando un accidente fatal en Texas que involucró a un Tesla que las autoridades creen que no tenía a nadie en el asiento del conductor en ese momento.
Usando un Tesla Model Y, los ingenieros de Consumer Reports pudieron “conducir” en una pista de prueba de circuito cerrado mientras estaban sentados en el asiento del pasajero delantero y en el asiento trasero. Para engañar al sistema de asistencia al conductor del automóvil, colocaron una cadena con peso en el volante para simular la presión de las manos del conductor y usaron el dial de velocidad del volante para acelerar desde una parada completa. Mientras mantuvieran la puerta del lado del conductor cerrada y el cinturón de seguridad del lado del conductor abrochado (para que el sistema no se desactive automáticamente), el vehículo continuó subiendo y bajando la pista de un kilómetro y siguiendo las líneas de los carriles pintados durante el experimento.
“Fue un poco aterrador cuando nos dimos cuenta de lo fácil que era vencer las salvaguardas, que demostramos que eran claramente insuficientes”, dijo Jake Fisher, director senior de pruebas de autoconducción de la publicación que realizó el experimento, en un comunicado.
“En nuestra evaluación, el sistema no solo falló en asegurarse de que el conductor estuviera prestando atención, sino que tampoco pudo saber si había un conductor allí”, continuó. “Tesla se está quedando atrás de otros fabricantes de automóviles como GM y Ford que, en modelos con sistemas avanzados de asistencia al conductor, usan tecnología para asegurarse de que el conductor esté mirando hacia la carretera”.
Sin embargo, no intente nada de esto en casa, advirtió Fisher, enfatizando que el equipo de Consumer Reports realizó sus pruebas en un circuito cerrado a velocidades relativamente bajas con equipos de seguridad en espera.
“Permítanme ser claro: cualquiera que use el Autopilot en la carretera sin alguien en el asiento del conductor se está poniendo a sí mismo y a los demás en peligro inminente”, dijo.
Según los informes, el vehículo involucrado en el accidente fatal del sábado era un Tesla Model S, un modelo diferente del que Consumer Reports usó en su experimento. Sin embargo, ambos usan el mismo sistema de Autopilot, señala la publicación.
En la página de soporte de Tesla para el sistema, la compañía revela que sus autos no son completamente autónomos. También advierte que, a pesar de sus homónimos, sus funciones de piloto automático y conducción autónoma requieren una “supervisión activa del conductor”.
Pero esas advertencias no han impedido que los conductores de Tesla entreguen el control al sistema de Autopilot de su automóvil mientras duermen, cambian de asiento o apartan la vista de la carretera. En 2018, la policía de California detuvo a un conductor de un Tesla Model S que estaba borracho y dormido al volante mientras su automóvil aceleraba a 112 kilómetros por hora. Un incidente similar ocurrió en Canadá en septiembre pasado. El propietario de un Tesla Model S fue acusado de conducción peligrosa después de que lo encontraron dormido al volante mientras viajaba a 150 kilómetros por hora por la carretera.
Y el accidente del sábado no es un incidente aislado. Según los informes, la Administración Nacional de Seguridad del Tráfico en las Carreteras, el regulador de seguridad de automóviles de Estados Unidos, ha abierto al menos 14 investigaciones sobre choques de Tesla en los que se sospecha que se está utilizando el sistema de Autopilot del vehículo. Esta semana, la NHTSA anunció que también enviaría un equipo para investigar el accidente en Texas.