Saltar al contenido
Tecnología

¿Debería la Sección 230 proteger a las empresas de IA de ser demandadas hasta dejarlas de existir?

Un proyecto de ley en el Senado prohibiría a empresas como OpenAI inmunidad legal con respecto al contenido que producen sus productos.
Por

Tiempo de lectura 6 minutos

Bienvenido a AI This Week, la inmersión profunda semanal de Gizmodo sobre lo que ha estado sucediendo en la inteligencia artificial.

Esta semana ha habido rumores de que un proyecto de ley bipartidista que prohibiría la protección de las plataformas de IA bajo la Sección 230 se está acelerando. La histórica ley de Internet protege a los sitios web de la responsabilidad legal por el contenido que alojan y sus implicaciones para el destino de la IA no están claras. La legislación, escrita por los senadores Josh Hawley (R-Mo.) y Richard Blumenthal (D-Conn.), quitaría “inmunidad” a las empresas de IA. ” cuando se trata de reclamaciones civiles o procesos penales, un comunicado de prensa De las afirmaciones de la oficina de Hawley. Es otro recordatorio de que la IA es un verdadero avispero de espinosas cuestiones legales y regulatorias que aún no se han resuelto. por resolver.

En términos generales, la Sección 230 fue diseñada para proteger a las plataformas de Internet de ser demandadas por el contenido creado por terceros. Mientras que los usuarios individuales de Aunque esas plataformas pueden ser responsables de las cosas que publican en línea, las plataformas mismas gozan de inmunidad legal en la mayoría de los casos. desarrollado en la década de 1990 en gran medida como una forma de proteger la naciente Internet, ya que los reguladores parecen haberse dado cuenta de que la web no sobreviviría si todos sus motores de búsqueda y foros de mensajes fueran demandados fuera de existencia.

Por supuesto, los tiempos han cambiado desde que se aprobó la ley en 1996 y ha habido llamados en curso a reformar la Sección 230 En los últimos años. Cuando se trata de IA, parece haber todo tipo de argumentos sobre por qué (o por qué no). ) plataformas como ChatGPT no deberían estar cubiertas por la legislación histórica.

Ya hemos visto al destacado profesor de derecho Jonathan Turley quejarse de que ChatGPT Afirmó falsamente que había acosado sexualmente a alguien. La amenaza de demandas por difamación u otras responsabilidades legales se cierne sobre todas las empresas que desarrollan productos de IA en este momento, y probablemente sea hora de establecer algunos nuevos precedentes.

Matt Perault, profesor de la Universidad de Carolina del Norte en Chapel Hill, escribió un ensayo en febrero argumentando que las empresas de IA no estarían cubiertas por la Sección 230, al menos no todo el tiempo. Según la opinión de Perault sobre cosas , las plataformas de IA se han diferenciado de plataformas como Google o Facebook, donde el contenido se aloja pasivamente. En cambio, empresas como OpenAI comercializar abiertamente sus productos como generadores de contenido, lo que parecería impedirles recibir protección bajo la ley.

“La distinción actualmente entre plataformas que pueden obtener protección 230 y aquellas que no es básicamente: ¿Es usted un anfitrión o ¿un creador de contenido?”, dijo Perault, en una llamada telefónica. “La forma en que la ley define ese término es si usted crea o desarrolla contenido ‘en su totalidad o en parte’. Eso significa que incluso si desarrollas contenido ‘en parte’, entonces no puedes obtener 230 protecciones. . Así que mi punto de vista es que una herramienta de IA generativa, donde el nombre de la herramienta es literalmente ‘generativa’; toda la idea es que genera contenido y luego probablemente, al menos en algunas circunstancias, no obtendrá 230 protecciones”.

Samir Jain, vicepresidente de políticas del Centro para la Democracia y la Tecnología, dijo que también sentía que habría circunstancias en las que una plataforma de IA podría ser considerada responsable de las cosas que genera. “Creo que probablemente dependerá de los hechos de cada situación particular”, añadió Jain. “En el caso de algo como una “alucinación” en el que el algoritmo generativo de IA parece haber creado algo de la nada, probablemente será difícil argumentar que no jugó al menos algún papel en el desarrollo de eso”.

Al mismo tiempo, podría haber otras circunstancias en las que se podría argumentar que una herramienta de IA no actúa necesariamente como un contenido. creador. “Si, por otro lado, lo que produce la IA generativa se parece mucho más a los resultados de una consulta de búsqueda en respuesta a la entrada de un usuario o donde el usuario ha sido realmente el que está dando forma a cuál fue la respuesta del sistema de IA generativa, entonces parece posible que la Sección 230 pueda aplicarse en ese contexto”, dijo Jain. “Mucho dependerá de los hechos particulares [de en cada caso] y no estoy seguro de si habrá una respuesta simple y única de ‘sí’ o ‘no’ a esa pregunta”.

Otros han argumentado en contra de la idea de que las plataformas de IA no estarán protegidas por la Sección 230. un ensayo sobre TechDirtEl abogado y tecnólogo Jess Miers sostiene que existe un precedente legal para considerar las plataformas de IA fuera de la categoría de “contenido de información”. proveedor” o creador de contenido. Ella cita varios casos legales que parecen proporcionar una hoja de ruta para la protección regulatoria de la IA, argumentando que productos como ChatGPT podrían considerarse “funcionalmente similares a los ‘motores de búsqueda ordinarios’ y a tecnologías predictivas como el autocompletado”.

Las fuentes con las que hablé parecían escépticas de que las nuevas regulaciones serían el árbitro definitivo de las protecciones de la Sección 230 para las plataformas de IA, al menos no en primero. En otras palabras: parece poco probable que la legislación de Hawley y Blumenthal consiga resolver el asunto. Con toda probabilidad, dijo Perault, Estas cuestiones serán litigadas por el sistema judicial antes de que se lleve a cabo cualquier tipo de acción legislativa integral. “Necesitamos que el Congreso intervenga y describa cómo deberían ser las reglas de tránsito en esta área”, dijo, mientras agregaba que, de manera problemática, “El Congreso actualmente no es capaz de legislar”.

Photo: Rozy Ghaly
Photo: Rozy Ghaly (Pregunta del día: ¿Cuál es el robot más memorable en la historia del cine? )

Shutterstock

Esta es una pregunta vieja y ciertamente trillada, pero aun así vale la pena hacerla de vez en cuando. Por “robot”, me refiero Cualquier personaje de una película de ciencia ficción que sea una máquina no humana. Podría ser un programa de software o podría ser un cyborg completo. Por supuesto, están los contendientes habituales: HAL de 2001: Una odisea en el espacio Terminator y Roy Batty de corredor de cuchillas—pero también hay muchos otros potentados, en gran parte olvidados. Extraterrestre La franquicia, por ejemplo, pasa desapercibida cuando se trata de este debate, pero casi todas las películas de la serie. presenta un android memorable interpretado por un actor realmente bueno. También está Alex Garland Ex Machina, el favorito de A24 que presenta a Alicia Vikander como una mujer robot seductora. También tengo debilidad por M3GAN, la película de 2022 que es básicamente juego de niños con robots. Habla en los comentarios si tienes alguna idea sobre este tema tan importante.

Más titulares esta semana

Google parece haber hecho trampa durante su demostración de Gemini esta semana. En caso que te perdiste lo, Google ha lanzado una nuevo modelo multimodal de IA : Géminis—que, según afirma, es su modelo de IA más potente hasta el momento. El programa ha sido anunciado como un potencial competidor de ChatGPT, y los espectadores notaron su impresionantes capacidades. Sin embargo, ha salido a la luz que Google hizo trampa durante su demostración inicial de la plataforma. A video lanzado por la compañía el miércoles, parecía mostrar las habilidades de Géminis, pero resulta que el video fue editado y que el chatbot no No funciona tan fluidamente como parece mostrar el video. Esto obviamente ¿No es la primera vez que una empresa tecnológica hace trampa durante una demostración de producto? pero ciertamente es un poco tropiezo para Google, considerando la exageración en torno a este nuevo modelo.

Las regulaciones de IA propuestas por la UE están atravesando negociaciones críticas en este momento. Actualmente, la Unión Europea está tratando de ultimar los detalles de su emblemática “Ley de IA”, que abordaría los posibles daños de la tecnología artificial. inteligencia. A diferencia de Estados Unidos, donde—aparte de— una orden ejecutiva ligera de la administración de Biden : el gobierno, como era de esperar, ha decidido simplemente dejar que las empresas de tecnología hagan lo que quieran, la UE en realidad está tratando de Gobernanza de la IA. Sin embargo, esos intentos están fallando un poco. Esta semana, negociaciones maratónicas sobre el contenido del proyecto de ley no produjo consenso sobre algunos de los elementos clave de la legislación.

La primera “fábrica de robots humanoides” del mundo está a punto de abrir. ¿Qué significa eso? Está a punto de abrirse una nueva fábrica en Salem, Oregon, cuyo único propósito es fabricar “robots humanoides”. ¿Eso significa exactamente? Significa que, muy pronto, los trabajadores de los almacenes de Amazon podrían quedarse sin trabajo. De hecho, Axios informes eso los robots en cuestion han sido diseñados para “ayudar a Amazon y a otras empresas gigantes con el transporte, levantamiento y movimiento peligrosos”. La empresa detrás de los robots, Agility Robots abrirá sus instalaciones en algún momento del próximo año y planea producir unos 10.000 robots anualmente.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias.Para la versión original, haga clic aquí.

Compartir esta historia

Artículos relacionados