El lunes un vehículo de Uber atropelló y mató a una mujer durante un recorrido de prueba. Al día siguiente la policía decía que era “completamente imposible” evitar el accidente, pero un día después un vídeo revelaba que el conductor del Uber no estaba mirando la carretera. ¿Quién es el responsable en un caso así?
Como muchos medios apuntaron, es posible que se trate de la primera vez que un automóvil sin conductor ha causado un accidente fatal con un peatón. Un incidente que realimenta el debate moral y la ética sobre este tipo de tecnología, debate que por cierto, existía antes incluso de su aparición.
¿Es realmente la primera muerte bajo estas circunstancias? Sí, aunque lo más cercano hasta la fecha ocurrió en un Tesla con el modo autopilot que causó un accidente y mató a su conductor. Tras una investigación de ocho meses en Estados Unidos, los reguladores federales de seguridad no encontraron defectos en el sistema del vehículo y Tesla fue exonerada.
Además, el accidente de Uber es diferente. Mientras que el sistema de Tesla no es técnicamente autónomo, por lo que su conductor asume más responsabilidad, la muerte de un peatón es diferente de la muerte de un conductor, situaciones que plantean un conjunto diferente de preguntas.
En el caso de Uber, ¿quién debería asumir las responsabilidades? ¿Uber, Volvo, el conductor? Esta misma pregunta se la plantearon en Mashable, acudiendo a los expertos para que valoraran los diferentes escenarios posibles.
Para todos ellos, resulta que la pregunta es incorrecta. De hecho, es una cuestión que ya mencionaba un artículo de Stanford Law School de 2015 donde la calificaban de “específica, pero inútil”, señalando que “si se pregunta ‘¿Quién es responsable de los accidentes autónomos del mañana?’ en abstracto es como preguntar “¿Quién es el responsable en los accidentes convencionales de hoy?” La respuesta es, depende”.
Lo que venían a decir es que cualquiera, desde el conductor de Uber hasta la propia Volvo que cedió el coche, o incluso los proveedores de piezas de automóviles individuales, podrían enfrentarse a cargos, todo depende de los resultados de la investigación policial en curso. Obviamente, el “conductor” del coche, Rafael Vásquez, de 44 años, podría estar en problemas si la policía descubre que de alguna manera “equivocó” al automóvil.
Según explica el profesor e ingeniero Ali Abbas, de la Universidad de California, muchos algoritmos de prevención de colisiones requieren información específica para funcionar, como el número de personas en el automóvil y el lugar donde están sentados, así como el número de personas en los vehículos que le rodean:
Algunos de estos algoritmos podrían ser modificables; por ejemplo, al afirmar que transporta un número falsamente alto de pasajeros, un conductor podría engañar a su automóvil u otros automóviles para que prioricen su propia vida sobre la de los demás, según cómo el algoritmo sopese las decisiones de crisis.
El profesor explica al medio que por el momento no hay leyes en contra de hacer esto, pero si el engaño del conductor tuvo lugar en el caso de Uber, “ciertamente podría abrir una consideración legal en el futuro”.
Para el profesor Bryant Walker Smith, de Stanford Law, el video que se publicó recientemente también indica que el conductor puede tener la culpa:
Si presto mucha atención, noto a la víctima unos dos segundos antes de que pare el video. Esto es similar al tiempo de reacción promedio de un conductor. Eso significa que un conductor alerta puede haber al menos intentado girar o frenar. Además, las imágenes también muestran a Vásquez mirando hacia otro lado del camino en múltiples ocasiones.
¿Y Uber tiene culpa? Smith cuenta que Uber está en problemas si se descubre que ha lanzado coches que se conducen en calles abiertas y que sabían que estaban defectuosos. La policía no debería preguntarse si los algoritmos de Uber son perfectos, “pero puede haber una cuestión de cuánto sabía Uber sobre sus deficiencias”.
Sobre esto, el profesor Abbas explica que los algoritmos de hoy no tendrán nada que ver con los de dentro de 10 o 15 años, por eso lanza la siguiente pregunta: “¿Con qué precisión sabía la compañía que su algoritmo funcionaría antes de que lo introdujera en las calles? Es muy difícil y complicado saber eso”, concluye. [Mashable]