Saltar al contenido
Tecnología

El futuro de la IA pende de la equilibrio con la ley de California

Aquí encontrará todo lo que necesita saber sobre el nuevo proyecto de ley sobre IA de California y la lucha para acelerar o desacelerar la IA que se está derramando en la política.
Por

Tiempo de lectura 8 minutos

Comentarios (0)

Un proyecto de ley de California que intenta regular los modelos de IA de gran frontera está creando un enfrentamiento dramático sobre el futuro de la IA. Durante años, la IA ha sido dividido en “acelerar” y “desacelerar”. Las aceleraciones quieren que la IA progrese rápidamente – moviéndose rápido y rompa cosas – mientras las desaceleraciones quieren que el desarrollo de la IA se desacelere para por el bien de la humanidad. La batalla se convirtió en el centro de atención nacional cuando La junta directiva de OpenAI destituyó brevemente a Sam Altman, muchos de los que han desde separarse de la startup En nombre de la seguridad de la IA. Ahora, un proyecto de ley de California está haciendo que esta lucha sea política.

¿Qué es la SB 1047?

SB 1047 Es un proyecto de ley del estado de California que haría a los grandes proveedores de modelos de IA, como Meta, OpenAI, Anthropic y Mistral, responsables de los peligros potencialmente catastróficos de sus sistemas de inteligencia artificial. El proyecto de ley, redactado por el senador estatal Scott Wiener, fue aprobado por el Senado de California en mayo y superó otro obstáculo importante para convertirse en ley esta semana.

¿Por qué debería importarme?

Bueno, podría convertirse en la primera regulación real de IA en los EE. UU. con algún diente, y está ocurriendo en California, donde todos los principales Las empresas de IA lo son.

salchicha describe la factura como el establecimiento de “estándares de seguridad claros, predecibles y de sentido común para los desarrolladores de los sistemas de inteligencia artificial más grandes y poderosos”. Sin embargo, de esa manera. Muchos en Silicon Valley están haciendo sonar las alarmas de que esta ley acabará con la era de la IA antes de que comience.

¿Qué hace realmente la SB 1047?

La SB 1047 responsabiliza a los proveedores de modelos de IA por cualquier “daño crítico”, destacando específicamente su papel en la creación de “eventos con víctimas masivas”. Por extravagante que pueda parecer, eso es importante porque Silicon Valley históricamente ha evadido la mayor parte de la responsabilidad por sus daños. El proyecto de ley empodera al Fiscal General de California tomar medidas legales contra estas empresas si uno de sus modelos de IA causa daños graves a los californianos.

La SB 1047 también incluye una disposición de “apagado” que efectivamente requiere que las compañías de IA creen un interruptor de apagado para un modelo de IA en el caso de que de una emergencia.

El proyecto de ley también crea la “División de Modelos de Frontera” dentro de la Agencia de Operaciones del Gobierno de California. Ese grupo “proporcionaría orientación” a estos modelos de IA de frontera. proveedores sobre los estándares de seguridad que cada empresa tendría que cumplir. Si las empresas no consideran las recomendaciones de la División, podrían ser demandadas y enfrentar penas civiles.

¿Quién apoya este proyecto de ley?

Además del senador Wiener, dos destacados investigadores de IA a quienes a veces se les llama los “padrinos de la IA”, Geoffrey Hinton y Yoshua Bengio, pusieron sus nombres en este proyecto de ley. Estos dos han sido muy destacados al emitir llamadas de advertencia sobre los peligros de la IA.

En términos más generales, este proyecto de ley coincide con la perspectiva de desaceleración, que cree que la IA tiene una probabilidad relativamente alta de acabar con la humanidad y debería estar regulado como tal. La mayoría de estas personas son investigadores de IA y no intentan activamente comercializar un producto de IA ya que, ya sabes, piensan que podría acabar con la humanidad.

El proyecto de ley está patrocinado por el Centro para la seguridad de la IA, dirigido por Dan Hendrycks. Su grupo publicó un carta abierta en mayo 2023 diciendo que el riesgo de extinción humana de la IA debe tomarse tan en serio como las guerras nucleares o las pandemias. Fue firmado por Sam Altman, Bill Gates , Grimes y mucha gente tecnológica influyente. Son un grupo influyente y un actor clave en la promoción de este proyecto de ley.

En marzo de 2023, las desaceleraciones requirieron una “pausa” en todo el desarrollo de IA implementar infraestructura de seguridad. Aunque suene extremo, hay muchas personas inteligentes en la comunidad de IA que realmente creen que la IA podría acabar con la humanidad. Su idea es que si existe alguna probabilidad de que la IA acabe con la humanidad, probablemente deberíamos regularla estrictamente, por si acaso.

Eso tiene sentido. Entonces, ¿quién está en contra de la SB 1047?

Si estás en X, parece que todos en Silicon Valley están en contra de la SB 1047. Los capitalistas de riesgo, los fundadores de nuevas empresas, los investigadores de IA y Los líderes de la comunidad de IA de código abierto odian este proyecto de ley. Generalmente clasificaría a estas personas como accels, o al menos ahí es donde aterrizan en este tema. Muchos de ellos están en el negocio de la IA, pero algunos también son investigadores.

El sentimiento general es que la SB 1047 podría obligar a los proveedores de modelos de IA como Meta y Mistral a reducir o detener por completo su esfuerzos de código abierto. Este proyecto de ley los hace responsables de los malos actores que usan sus modelos de IA, y estas empresas no pueden asumir eso. responsabilidad debido a las dificultades de imponer restricciones a la IA generativa y la naturaleza abierta de los productos.

“Acabará, aplastará y ralentizará por completo el ecosistema de startups de código abierto”, dijo Anjney Midha, socia general de A16Z y junta directiva de Mistral. Director, en una entrevista con Gizmodo. “Este proyecto de ley es similar a tratar de frenar el progreso de la imprenta, en contraposición a centrándose en dónde debería estar, que son los usos de la imprenta”.

“El código abierto es nuestra mejor esperanza para mantenernos a la vanguardia al reunir pruebas de seguridad transparentes para los modelos emergentes, en lugar de permitir que unos pocos poderosos Las empresas controlan la IA en secreto”, dijo Ion Stoica, profesor de Ciencias de la Computación de Berkeley y presidente ejecutivo de Databricks, en una entrevista.

Midha y Stoica no son los únicos que consideran que la regulación de la IA es existencial para la industria. La IA de código abierto ha impulsado las más prósperas La escena de startups de Silicon Valley en años. Los oponentes de la SB 1047 dicen que el proyecto de ley beneficiará a los tradicionales cerrados de las grandes tecnologías en lugar de a los prósperos, ecosistema abierto.`

“Realmente veo esto como una forma de obstaculizar el desarrollo de la IA de código abierto, como parte de una estrategia más amplia para desacelerar la IA”. dijo Jeremy Nixon, creador de AGI House, que sirve como centro para los hackatones de IA de código abierto de Silicon Valley. de una comunidad que está muy interesada en pausar la IA en general”.

Esto suena realmente técnico. ¿Pueden los legisladores hacer todo esto bien?

Es absolutamente técnico y eso ha creado algunos problemas. La SB 1047 sólo se aplica a modelos de frontera “grandes”, pero ¿qué tan grande es grande? El proyecto de ley lo define como modelos de IA entrenados en 10^26 FLOPS cuyo entrenamiento cuesta más de 100 millones de dólares, un modelo específico y muy grande. cantidad de potencia de cálculo según los estándares actuales. El problema es que la IA está creciendo muy rápidamente y los modelos 2023 parece pequeño en comparación con los estándares de 2024. Pegar una bandera en la arena no funciona bien para un campo que se mueve tan rápido.

Tampoco está claro si es siquiera posible evitar por completo que los sistemas de IA se comporten mal. La verdad es que no sabemos mucho sobre cómo funcionan los LLM y los principales modelos de IA actuales de OpenAI, Anthropic y Google tienen jailbreak todo el tiempo. Es por eso que algunos investigadores están diciendo que los reguladores deberían centrarse en los malos actores, no en los proveedores de modelos.

“Con la IA, es necesario regular el caso de uso, la acción y no los modelos en sí”, dijo Ravid Shwartz Ziv, un asistente. Profesor que estudia IA en la Universidad de Nueva York junto a Yann Lecunn, en una entrevista. “Los mejores investigadores del mundo pueden dedicar cantidades infinitas de tiempo en un modelo de IA, y la gente todavía puede hacerle jailbreak”.

Otra parte técnica de este proyecto de ley se relaciona con los modelos de IA de código abierto. Si una startup adopta Llama 3 de Meta, uno de los más populares modelos de IA de código abierto y los ajusta para que sean algo peligroso, ¿Meta sigue siendo responsable de ese modelo de IA?

Por ahora, Llama de Meta no alcanza el umbral para un “modelo cubierto”, pero probablemente lo alcanzará en el futuro. Según este proyecto de ley , parece que Meta ciertamente podría ser considerado responsable. Hay una advertencia de que si un desarrollador gasta más del 25% del costo entrenar a Llama 3 en el ajuste fino, ese desarrollador ahora es responsable. Dicho esto, los oponentes del proyecto de ley todavía consideran que esto es injusto y no el enfoque correcto.

Pregunta rápida: ¿Es la IA realmente libertad de expresión?

No está claro. Muchos en la comunidad de IA ven la IA de código abierto como una especie de libertad de expresión (por eso Midha se refirió a ella como una imprenta). La premisa es que el código subyacente a un modelo de IA es una forma de expresión, y las salidas del modelo son expresiones como Bueno, históricamente el código ha estado bajo la Primera Enmienda en varios casos.

Tres profesores de derecho discutieron un artículo sobre derecho que los modelos de IA no son exactamente libertad de expresión. Por un lado, dicen que los pesos que componen un modelo de IA no están escritos por humanos pero creados a través de vastas operaciones de aprendizaje automático. Los humanos apenas pueden leerlos.

En cuanto a los resultados de los modelos de IA de frontera, estos sistemas son un poco diferentes de los algoritmos de redes sociales, que se consideran bajo la Primera Enmienda en el pasado. Los modelos de IA no adoptan exactamente un punto de vista, dicen muchas cosas. Por esta razón, estos profesores de derecho dicen que la SB 1047 no puede afectar la Primera Enmienda.

Entonces, ¿qué sigue?

El proyecto de ley corre hacia una votación que se acerca rápidamente en agosto y que lo enviaría al escritorio del gobernador Gavin Newsom. Algunos obstáculos clave más para llegar allí, e incluso entonces, es posible que Newsom no lo firme debido a la presión de Silicon Valley. tech trade group acaba de enviarle a Newsom una carta diciéndole que no firme la SB 1047.

Sin embargo, es posible que Newsom quiera sentar un precedente para la nación en materia de IA. Si la SB 1047 entra en vigor, podría cambiar radicalmente la Paisaje de la IA en Estados Unidos.

Corrección, 25 de junio: Una versión anterior de este artículo no definió qué son “daños críticos”. También declaró que Llama 3 de Meta podría verse afectada, pero El modelo de IA no es lo suficientemente grande en este momento. Es probable que se vea afectado en el futuro. Por último, la División de Modelos de Frontier fue trasladado a la Agencia de Operaciones del Gobierno de California, no al Departamento de Tecnología. Ese grupo no tiene poder de aplicación en este momento.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias.Para la versión original, haga clic aquí.

Compartir esta historia

Artículos relacionados