La Administración Biden está avanzando con una orden ejecutiva de inteligencia artificial, primera en su tipo, destinada a crear nuevos “estándares industriales de consenso” para Desarrollar sistemas seguros y confiables y establecer nuevas barreras de seguridad para evitar un uso indebido potencialmente desastroso. orden ejecutiva Marca un punto de inflexión clave en la regulación de la IA, a medida que los legisladores de los gobiernos de todo el mundo luchan por encontrar la mejor manera de prevenir los daños en el tecnología emergente e impredecible.
Los expertos en IA estaban divididos el lunes. Muchos expresaron un optimismo cauteloso sobre la dirección de la orden de Biden, mientras que otros criticaron el enfoque del gobierno por confiar demasiado en en gran medida en las bondades voluntarias de las empresas tecnológicas multimillonarias.
La orden de Biden se divide en ocho categorías:
Nuevos estándares para la seguridad y la protección de la IA
Proteger la privacidad de los estadounidenses
Promoción de la equidad y los derechos civiles
Defender a los consumidores, pacientes y estudiantes
Apoyando a los trabajadores
Promoción de la innovación y la competencia
Impulsando el liderazgo estadounidense en el extranjero
Garantizar el uso gubernamental responsable y eficaz de la IA
En cuanto a la cuestión estándar, la orden pedirá a las principales empresas de IA que compartan los resultados de sus pruebas de seguridad con el gobierno y desarrollen nuevas herramientas para garantice que los sistemas de IA sean seguros y confiables. También está pidiendo a los desarrolladores de IA que desarrollen una variedad de nuevas herramientas y estándares para proteger contra todo tipo de Escenarios de catástrofe de la IA doomer, desde armas biológicas generadas por IA hasta fraudes y ataques cibernéticos asistidos por IA. Los jefes de múltiples agencias gubernamentales relevantes tendrán la tarea de proporcionar una Informe anual que evalúa los peligros potenciales que la IA representa para sus áreas específicas de infraestructura crítica. Esos informes incluirán una evaluación de las formas en que la IA podría implementarse para hacer que la infraestructura sea más vulnerable a fallas críticas.
Los desarrolladores de IA que avancen deberán compartir los resultados de las pruebas de seguridad con el gobierno federal si se determina que sus herramientas podrían plantear un problema nacional. riesgo para la seguridad. La administración Biden está utilizando la Ley de Producción de Defensa, aprobada originalmente en 1950, para hacer cumplir esos requisitos.
“Aprovechar la Ley de Producción de Defensa para regular la IA deja en claro la importancia de los riesgos de seguridad nacional contemplados y la urgencia que la Administración siente de actuar”, dijo Caitlin Fennessy, vicepresidenta y directora de conocimientos de la Asociación Internacional de Profesionales de la Privacidad, en una declaración enviada por correo electrónico.
Las agencias del gobierno federal trabajarán junto con la industria privada aquí. El Instituto Nacional de Estándares y Tecnología (NIST), por ejemplo, será responsable de desarrollar estándares para los modelos de IA del “equipo rojo” antes de su lanzamiento al público. Mientras tanto, el Departamento de Energía y el Departamento de Seguridad Nacional , examinará las posibles amenazas a la infraestructura y otros sistemas críticos.
Biden pide nuevas iniciativas para identificar material generado por IA
En el futuro, la orden requerirá que el Secretario de Comercio desarrolle una guía para etiquetar el contenido generado por IA, una práctica a menudo denominada marcas de agua. El Secretario necesitará producir un informe que identifique las capacidades existentes para identificar medios generados por IA y etiquetarlos, así como identificar cualquier herramienta capaz de impedir que la IA generativa se utilice para crear material de abuso sexual infantil. El contenido generado por IA que represente a niños en actos sexuales ha comenzó a inundar Internet debido a la falta de leyes o regulaciones claras.
La Casa Blanca espera que este enfoque en las marcas de agua y el etiquetado adecuado “facilite a los estadounidenses saber que las comunicaciones que reciben de Su gobierno es auténtico», según una hoja informativa publicada el martes. Sin embargo, podrían tener un largo camino por recorrer. La IA generativa actual Los detectores han demostrado ser inconsistentes. OpenAI recientemente admitió que su propio detector de texto AI realmente no funciona.
En otros lugares, la orden se centra en los esfuerzos para prevenir La IA de ser utilizada para discriminar a las personas. Del mismo modo, la orden exige el desarrollo de nuevos estándares de justicia penal y mejores prácticas para determinar cómo se utiliza la IA en las sentencias. libertad condicional y liberación previa al juicio, así como en vigilancia y vigilancia policial predictiva. En particular, el texto de la orden no exige prohibiciones totales de cualquiera de estos casos de uso, que algunos defensores de la privacidad esperaban.
“Es necesario responsabilizar a quienes desarrollan e implementan IA de cumplir con estándares que protegen contra la discriminación y el abuso ilegales, incluso en el ámbito de la justicia. sistema y el gobierno federal”, escribió la administración en una copia de la orden ejecutiva obtenida por Gizmodo. “Sólo entonces los estadounidenses podrán confiar IA para promover los derechos civiles, la equidad y la justicia para todos».
La administración continuó diciendo el gobierno federal tomará medidas para garantizar que los datos recopilados por las empresas de IA y su retención sean “legales, seguros y promuevan la privacidad”. Una vez más, la administración Biden se enfrenta a una batalla cuesta arriba. Los creadores de contenido en múltiples medios ya han demandado OpenAI y otros creadores de IA sobre afirmaciones que cosecharon indebidamente material con copyright para entrenar sus algoritmos. Los estudios también han mostrado cómo los modelos de IA pueden utilizarse para inferir atributos personales sobre usuarios supuestamente anónimos.
La orden de Biden también enfatiza la importancia de ofrecer a los trabajadores, muchos de los cuales podrían verse afectados por los avances de la IA, un asiento en la mesa. La orden dice que los modelos de IA no deben desarrollarse de manera que socaven los derechos de los trabajadores, empeoren la calidad del empleo, fomenten una vigilancia indebida o reduzcan competencia en el mercado.
Con ese fin, la administración Biden llega tarde a la fiesta. Los modelos en lenguaje grande al estilo ChatGPT yacontribuyó a los despidos en una variedad de industrias de cuello blanco en los últimos meses, desde las ventas hasta periodismo. Todos los signos parecen apuntar a que esa tendencia está empeorando.
De manera similar, la orden de Biden dedica un espacio considerable a la necesidad de que Estados Unidos atraiga más talentos de IA del extranjero para mantener una ventaja en el Carrera global de tecnología de IA. Parte de esa campaña de reclutamiento significa flexibilizar las restricciones de inmigración. La orden exige una simplificación de las solicitudes de visa y solicitudes para ciudadanos no estadounidenses interesados en trabajar en proyectos de IA en los EE. UU. También instruye al Secretario de Comercio a considerar un programa enfocado en identificar y atraer los mejores talentos de IA en todo el mundo.
“El enfoque en los profesionales y la capacitación en materia de gobernanza de la IA garantizará que las medidas de seguridad de la IA se desarrollen con una comprensión profunda de la tecnología y el contexto de uso. “Es necesario para permitir que la innovación continúe a un ritmo de una manera en la que podamos confiar”, añadió Fennessy.
Además de los usos de la IA, la orden de Biden también intenta abordar los datos utilizados para entrenar modelos cada vez más potentes. La orden llama específicamente al gobierno agencias para evaluar cómo recopilan y utilizan la información disponible comercialmente, incluida la obtenida de intermediarios de datos.
El orden se construye compromisos voluntarios anteriores de siete de las principales empresas de inteligencia artificial del mundo en torno a los requisitos de prueba y marcas de agua. Esos “compromisos” esencialmente equivalen a una autovigilancia por parte de gigantes tecnológicos. Esta orden, por el contrario, altera el peso de la pluma ejecutiva, aunque no está claro hasta dónde llegarán las agencias gubernamentales. para castigar a las empresas consideradas fuera de sintonía con las nuevas directrices. Como todas las órdenes ejecutivas, las iniciativas de inteligencia artificial de Biden están sujetas a volverse irrelevantes si no gana la reelección y su sucesor decide revertir el curso.
Aun así, el jefe adjunto de gabinete de la Casa Blanca, Bruce Reed, le dijo a CNBC él cree que estas y otras directrices incluidas en la orden marcan “el conjunto de acciones más enérgicas que cualquier gobierno del mundo haya tomado jamás”. sobre la seguridad, la protección y la confianza de la IA”.
Los expertos dicen que la orden es un paso en la dirección correcta, pero se necesitan más detalles políticos concretos.
Los expertos en IA en el campo han respondido hasta ahora a la orden con cauteloso optimismo. La orden de Biden puede carecer de detalles específicos, pero Sin embargo, indica un enfoque de “todo el gobierno” para abordar la regulación de la IA. Esto es particularmente tranquilizador dada la dificultad de aprobar una legislación significativa sobre la IA en un Congreso políticamente dividido.
“La Orden Ejecutiva parece estar en camino de representar un esfuerzo notable de todo el gobierno para apoyar el desarrollo y la gobernanza responsable de la IA”. dijo la directora ejecutiva del Centro para la Democracia y la Tecnología, Alexandra Reeve Givens, en una declaración enviada por correo electrónico. “Es notable ver a la Administración centrándose en ambos riesgos emergentes de modelos de fundaciones sofisticados y las muchas maneras en que los sistemas de IA ya están impactando los derechos de las personas: un enfoque crucial que responde a las muchas preocupaciones planteadas por los expertos y defensores del interés público”.
Pero no todos quedaron satisfechos con la orden. Los defensores de la privacidad criticaron la larga orden por negarse a adoptar una posición más firme en un sentido o en otro. otro sobre la eficacia de los modelos de IA que ya se han utilizado para vigilar o discriminar a los estadounidenses. Algunos, como el presidente de Mozilla, Mark Surman , también cuestionó la falta de énfasis de la orden en las iniciativas de IA de código abierto, que han sido un área importante de divergencia entre los creadores de IA como Meta y Google.
“Ojalá hubiéramos visto algo sobre el código abierto y la ciencia abierta en la Orden Ejecutiva”, dijo Surman en una declaración enviada por correo electrónico. “La apertura y la transparencia son clave si queremos que los beneficios de la IA lleguen a la mayoría de la humanidad, en lugar de verlos aplicados únicamente. utilizar casos donde el beneficio sea el principal motivador”.
Otros, como el director ejecutivo del Proyecto de Supervisión de Tecnología de Vigilancia, Albert Fox Cahn, criticaron la orden, argumentando que era una oportunidad perdida para adoptar una línea dura. postura contra las tecnologías invasivas de IA como el reconocimiento facial y otros sistemas de vigilancia biométrica.
“Muchas formas de IA simplemente no deberían permitirse en el mercado”, dijo Fox Cahn en una declaración. “Y muchas de estas propuestas Son simplemente un teatro regulatorio que permite que la IA abusiva permanezca en el mercado.
Quizás lo más crítico es que a la amplia orden ejecutiva todavía le falta mucho material para hacer que las empresas de IA rindan cuentas. El gobierno federal espera poder caminar al mismo ritmo que las principales empresas de IA, algunas de las cuales parecen ansiosas por encarnar el “movimiento rápido y romper cosas» tech ethos.
“La Casa Blanca continúa cometiendo el error de confiar excesivamente en técnicas de auditoría de IA que las empresas y agencias pueden manipular fácilmente”, dijo Fox. Cahn añadió.
Actualización 4:45 PM EST: Se agregaron detalles de la orden ejecutiva y declaraciones de expertos en IA.