La administración Trump ha dado luz verde al uso masivo de inteligencia artificial generativa en agencias como la General Services Administration y la Social Security Administration. Incluso el Departamento de Asuntos de Veteranos ya utiliza IA para escribir código, mientras que el Ejército ha desplegado su propio modelo, CamoGPT, para filtrar documentos y eliminar referencias a diversidad, equidad e inclusión.
El Departamento de Educación, por su parte, planea integrar chatbots para responder a estudiantes sobre becas y préstamos. El objetivo declarado: ahorrar costes y acelerar procesos. El costo humano: hasta 300.000 despidos en el sector público para finales de 2025.
El espejismo de la eficiencia
Los defensores de la IA en la administración pública aseguran que estas herramientas pueden ahorrar tiempo en tareas como redactar correos o resumir documentos. De hecho, un piloto en Pensilvania con ChatGPT demostró que empleados ganaban en promedio 95 minutos diarios.
Pero expertos como Meg Young, investigadora del Data & Society Institute, advierten que la tecnología está lejos de ser fiable en contextos complejos. La contratación pública, por ejemplo, implica negociaciones legales delicadas entre gobierno y empresas, con cláusulas que deben revisarse al detalle. “Si un chatbot inventa nuevas condiciones, lo único que hace es quemar tiempo legal”, explica Young.
La mayor preocupación es la falta de precisión. Un estudio de 2024 sobre chatbots especializados en derecho reveló que entre el 17% y el 33% de sus respuestas contenían errores o “alucinaciones”. Entre los fallos detectados: citar leyes derogadas, confundir argumentos con sentencias o, en un caso extremo, afirmar que un tribunal estatal había anulado al Tribunal Supremo.
Estos errores no son solo anecdóticos. En 2023, abogados que demandaban a Avianca Airlines fueron sancionados tras presentar casos ficticios generados por ChatGPT. Para un sistema legal ya sobrecargado, estos fallos son un lujo que no puede permitirse.
¿Los impuestos de la gente en manos de un bot?
Aunque el IRS aún no ofrece un chatbot de IA generativa al público, ya estudia implementarlo. Y aquí surge un dilema: si un chatbot del gobierno te dice que puedes deducir un gasto, pero Hacienda lo rechaza, el sistema deja claro que su respuesta no es vinculante.
Investigadores como Leigh Osofsky (Universidad de Carolina del Norte) y Joshua Blank (Universidad de California, Irvine) recomiendan que cualquier chatbot oficial venga acompañado de disclaimers claros y una cadena de mando definida sobre quién controla y actualiza el sistema.
El futuro incierto de la IA gubernamental
La administración Trump, sin embargo, parece optar por la velocidad antes que por la cautela. El sistema “GSAi” fue desplegado a 13.000 empleados en tiempo récord, sin un plan gradual de integración.
La conclusión de los expertos es clara: la IA aún está en pañales, y usarla para gobernar un país es un experimento arriesgado. Puede redactar recetas o correos, pero decidir sobre contratos multimillonarios, beneficios sociales o normativas legales es otro nivel de responsabilidad.
Estamos, como señala Young, en los “primeros días de prueba”. El problema es que el laboratorio ya no es académico, sino el propio aparato del Estado.
Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.