Saltar al contenido
Noticias

¿Quién es el responsable cuando un coche autónomo mata a una persona?

Por

Tiempo de lectura 3 minutos

Comentarios (0)

El lunes un vehículo de Uber atropelló y
mató
a una mujer durante un recorrido de prueba. Al día siguiente la policía decía
que era “completamente imposible” evitar el accidente, pero un día después un
vídeo
revelaba que el conductor del Uber no estaba mirando la carretera. ¿Quién
es el responsable en un caso así?

Como muchos medios apuntaron, es posible
que se trate de la primera vez que un automóvil sin conductor ha causado un
accidente fatal con un peatón. Un incidente que realimenta el debate moral y la
ética sobre este tipo de tecnología, debate que por cierto, existía antes
incluso de su aparición.

¿Es realmente la primera muerte bajo
estas circunstancias? Sí, aunque lo más cercano hasta la fecha
ocurrió en un Tesla con el modo autopilot que causó un accidente y mató a su
conductor. Tras una investigación de
ocho meses en Estados Unidos, los reguladores federales de seguridad no
encontraron defectos
en el sistema del vehículo y Tesla fue exonerada.

Además, el accidente de Uber es diferente.
Mientras que el sistema de Tesla no es técnicamente autónomo, por lo que su
conductor asume más responsabilidad, la muerte de un peatón es diferente de la
muerte de un conductor, situaciones que plantean un conjunto diferente de
preguntas.

En el caso de Uber, ¿quién debería asumir
las responsabilidades? ¿Uber, Volvo, el conductor? Esta misma pregunta se la
plantearon en Mashable, acudiendo a los expertos para que valoraran los
diferentes escenarios posibles.

Para todos ellos, resulta que la pregunta
es incorrecta. De hecho, es una cuestión que ya mencionaba un artículo de
Stanford Law School
de 2015 donde la calificaban de “específica, pero
inútil”, señalando que “si se pregunta ‘¿Quién es responsable de los
accidentes autónomos del mañana?’ en abstracto es como preguntar “¿Quién
es el responsable en los accidentes convencionales de hoy?” La respuesta
es, depende”.

Lo que venían a decir es que cualquiera,
desde el conductor de Uber hasta la propia Volvo que cedió el coche, o incluso
los proveedores de piezas de automóviles individuales, podrían enfrentarse
a cargos, todo depende de los resultados de la investigación policial en curso.
Obviamente, el “conductor” del coche, Rafael Vásquez, de 44 años,
podría estar en problemas si la policía descubre que de alguna manera “equivocó”
al automóvil.

Según explica el profesor e ingeniero Ali
Abbas, de la Universidad de California, muchos algoritmos de prevención de
colisiones requieren información específica para funcionar, como el número de
personas en el automóvil y el lugar donde están sentados, así como el número de
personas en los vehículos que le rodean:

Algunos de estos algoritmos podrían ser modificables;
por ejemplo, al afirmar que transporta un número falsamente alto de pasajeros,
un conductor podría engañar a su automóvil u otros automóviles para que
prioricen su propia vida sobre la de los demás, según cómo el algoritmo sopese
las decisiones de crisis.

El profesor explica al medio que por el
momento no hay leyes en contra de hacer esto, pero si el engaño del conductor
tuvo lugar en el caso de Uber, “ciertamente podría abrir una consideración
legal en el futuro”.

Para el profesor Bryant Walker Smith, de
Stanford Law, el video que se publicó recientemente también indica que el
conductor puede tener la culpa:

Si presto mucha atención, noto a la
víctima unos dos segundos antes de que pare el video. Esto es similar al tiempo
de reacción promedio de un conductor. Eso significa que un conductor alerta
puede haber al menos intentado girar o frenar. Además, las imágenes también
muestran a Vásquez mirando hacia otro lado del camino en múltiples ocasiones.

¿Y Uber tiene culpa? Smith cuenta que Uber
está en problemas si se descubre que ha lanzado coches que se conducen en
calles abiertas y que sabían que estaban defectuosos. La policía no debería
preguntarse si los algoritmos de Uber son perfectos, “pero puede haber una
cuestión de cuánto sabía Uber sobre sus deficiencias”.

Sobre esto, el profesor Abbas explica que
los algoritmos de hoy no tendrán nada que ver con los de dentro de 10 o 15 años,
por eso lanza la siguiente pregunta: “¿Con qué precisión sabía la compañía que
su algoritmo funcionaría antes de que lo introdujera en las calles? Es muy difícil y complicado saber eso”, concluye. [Mashable]

Compartir esta historia