Los sistemas de automóviles sin conductor tienen un problema de sesgo, según un nuevo estudio del Kings College de Londres. estudiar Examinó ocho sistemas de detección de peatones impulsados por IA utilizados para la investigación de conducción autónoma. Los investigadores analizaron más de 8000 imágenes a través del software y descubrieron que Los sistemas de vehículos autónomos fueron casi un 20 % mejores en la detección de peatones adultos que los niños, y más de un 7,5 % mejores en la detección de personas de piel clara. peatones sobre los de piel oscura . La IA fueron aún peores en identificar a personas de piel oscura en luz poca y en entornos bajos, lo haciendo la tecnología incluso menos seguro por la noche.
Para los niños y las personas de color, cruzar la calle podría volverse más peligroso en el futuro cercano.
“La justicia cuando se trata de IA es cuando un sistema de IA trata a los grupos privilegiados y desfavorecidos por igual, lo cual no es lo que es. sucede cuando se trata de vehículos autónomos”, dijo el Dr. Jie Zhang, uno de los autores del estudio, en un comunicado de prensa. “Los fabricantes de automóviles no revelan los detalles del software que utilizan para la detección de peatones, pero como normalmente se construyen sobre el mismos sistemas de código abierto que utilizamos en nuestra investigación, podemos estar bastante seguros de que se encuentran con los mismos problemas de sesgo”.
El estudio no probó exactamente el mismo software utilizado por las empresas de automóviles sin conductor que ya tienen sus productos en las calles, pero agrega a las crecientes preocupaciones de seguridad a medida que los automóviles se vuelven más comunes. Este mes, el gobierno del estado de California otorgó Waymo y Cruise free range para operar taxis sin conductor en San Francisco Las 24 horas del día. Ya , la tecnología es causando accidentesy provocando protestas en la ciudad.
Gizmodo se acercó a varias empresas más conocidas por sus vehículos autónomos.
Cruise y Tesla no respondieron a las solicitudes de comentarios.
Un portavoz de Waymo dijo que el estudio no representa todos
de la
herramientas utilizadas en los automóviles de la empresa. “En Waymo, no utilizamos imágenes de cámaras para detectar peatones», dijoSandy Karp, portavoz de Waymo.En lugar de ello, aprovechamos nuestro conjunto completo de sensores, incluidos nuestros lidares y radares, no solo cámaras, para ayudarnos a detectar activamente los detalles. en nuestro entorno de una manera que sería difícil de lograr solo con cámaras.”Según los investigadores, una fuente importante de los problemas de la tecnología con los niños y las personas de piel oscura proviene del sesgo en los datos utilizados para Entrena la IA, que contiene más adultos y personas de piel clara.Karp dijo que Waymo entrena su tecnología de conducción autónoma para clasificar específicamente a los humanos y responder al comportamiento humano, y palabras para asegurarse de que sus conjuntos de datos son representantes.
Los algoritmos reflejan los sesgos presentes en los conjuntos de datos y las mentes de las personas que los crean. Un ejemplo común es software de reconocimiento facial