
Titulares de esta semana
- En una gran victoria para los artistas humanos, un juez de Washington DC ha gobernado que el arte generado por IA carece de protección de derechos de autor.
- meta tiene liberado SeamlessM4T, un traductor automatizado de voz y texto que funciona en docenas de idiomas.
- Nuevo investigación muestra que las granjas de contenido están utilizando IA para estafar y reempaquetar artículos de noticias de sitios de medios antiguos. Tenemos una entrevista con uno de los investigadores que descubrieron este lío a continuación.
- Por último, pero no menos importante: Stephen King tiene algunos pensamientos sobre el hecho de que sus libros fueron usados para entrenar algoritmos generadores de texto.
La historia principal: el gran tropiezo de Cruise

Durante años, Silicon Valley nos ha prometido autos sin conductor. Durante la tantos años, la tecnología imperfecta ha frustrado esas promesas. Sin embargo, en las últimas semanas parecía que nuestros sueños de un futuro sin conductor podría finalmente hacerse realidad. una decisión dictado el 10 de agosto por la Comisión de Servicios Públicos de California aprobado operaciones ampliadas para dos importantes “robotaxis” empresas: Waymo de Google y Cruise de GM. Ambas empresas, que han estado probando sus vehículos automatizados en el Área de la Bahía durante años, estaban esencialmente se les dio rienda suelta para montar una tienda y comenzar a ganar dinero con sus vagones sin conductor.
Esto ha sido aclamado con razón como un gran algo realmente para la industria del transporte autónoma, ya que es prácticamente la primera vez que los automóviles autónomos se han desatado de esta manera. Según Según el fallo de la CPUC, a Waymo ahora se le permite operar “servicios comerciales de pasajeros” a través de sus vehículos sin conductor, y sus automóviles podrán viajar libremente por San Francisco y ciertas áreas del condado de San Mateo; se les permitirá hacerlo a cualquier hora del día, a velocidades de hasta 65 mph, en cualquier condición climática predominante. A los cruceros se les han permitido privilegios similares en SF, a velocidades de hasta 35 mph. Además, ninguna de las empresas necesita dotar de personal a sus taxis autónomos “operadores de seguridad” Los acompañantes humanos que tradicionalmente han ayudado a guiar los vehículos automatizados.
En resumen: a partir de la semana pasada, realmente parecía que ambas empresas estaban listas para salir a la carretera y nunca mirar atrás.
Pero este breve momento de triunfo fue casi inmediatamente interrumpido por una desafortunada serie de eventos. El jueves por la noche, uno de los taxis de Cruise se estrelló contra un camión de bomberos En el distrito de Tenderloin, enviando a un empleado de Cruise al hospital. Poco después, otro taxi de Cruise se detuvo en una intersección de la ciudad. causando importantes retrasos de tráfico en la zona. De la noche a la mañana, los éxitos de Cruise parecieron evaporarse. El viernes, el Departamento de Vehículos Motorizados ordenó la empresa a reducir en la mitad el número de vehículos que tenía en las vías de la ciudad, citando “incidentes recientes recientes» que involucraron a sus automóviles. La empresa cumplió obligatoriamente, recuperar el 50 por ciento de su flota.
Este giro de los acontecimientos coloca ahora a los viajes autónomos en una extraña encrucijada. Con la flexibilización de las restricciones regulatorias, es probable que estos automóviles se conviertan en una parte cada vez más grande de nuestras vidas. El futuro que nos han prometido es uno en el que los viajes diarios son una experiencia de lujo totalmente automatizada; tu robotaxis recorrerá la autopista, usando solo sus algoritmos diseñados por expertos para navegar, mientras tú tomas una siesta en el asiento del conductor. siéntate o mira una película en tu iPhone. ¿Pero es así realmente como van a ser las cosas? ¿sirven para obstruir las intersecciones, provocar golpes en los guardabarros o algo peor?
Barry Brown, profesor de informática que trabaja tanto en la Universidad de Copenhague como en la Universidad de Estocolmo, le dijo a Gizmodo que, a pesar de las exageraciones, los autos autónomos todavía están muy por detrás de lo que necesitan estar en lo que respecta a la navegación. sistemas complejos de vialidades. Marrón ha estudiado
coches autónomos durante años y dice que hay una cosa en la que no son especialmente buenos: leer en la habitación o en la carretera, “Les cuesta entender las intenciones de otros conductores”, dijo. “Nosotros, los humanos, en realidad somos muy buenos para hacer eso”. pero estos autos autónomos realmente tienen dificultades para resolverlo”.
El problema, desde la perspectiva de Brown, es que las carreteras son en realidad dominios sociales, ricos en sutiles señales interpersonales que indican a los conductores cómo interactuar con entre sí y su entorno. Desafortunadamente, los autos autónomos no son muy buenos para captar esas señales, y son más niños similares que aún no han sido socializados adecuadamente.
“No dejamos que los niños de cinco años conduzcan. Esperamos hasta que las personas tengan una edad en la que tengan mucha experiencia y comprensión. cómo se mueven otras personas”, dijo Brown. “Todos somos expertos en navegar entre multitudes de personas y aportamos esa comprensión a También tenemos que soportar cuando conducimos. Los coches autónomos, aunque son muy buenos para predecir la trayectoria y el movimiento, tienen dificultades para elegir Esté atento a las señales de otros usuarios de la carretera para comprender lo que está sucediendo”. Los entornos urbanos complejos son algo que estos vehículos no van a afrontar. esté listo para navegar en cualquier pronto, añade. “Tienes estas cuestiones básicas de cosas como ceder, pero luego,si obtienes Situaciones más complicadas: si hay ciclistas, cuando hay peatones en la carretera, cuando hay tráfico muy denso, como en Nueva York, estos problemas escalar y volverse aún más difícil”.

La entrevista: Jack Brewster de NewsGuard sobre el ascenso del bot de plagio Esta semana hablamos con Jack Brewster, analista senior de NewsGuard, cuyo equipo publicó recientemente un informe Sobre cómo las herramientas de inteligencia artificial están siendo utilizadas por sitios web de mala calidad para plagiar contenido de noticias de sitios de medios antiguos. El informe, que arroja luz en el extraño mundo emergente de Agricultura de contenido de IA, muestra que algunos sitios parecen haber automatizado completamente el proceso de creación de artículos, utilizando robots para extraer sitios de noticias y luego usando chatbots de IA. reescribir ese contenido en noticias agregadas, que luego se monetizan a través de ofertas publicitarias. Esta entrevista ha sido editada para mayor brevedad y claridad.
¿Cómo se enteró inicialmente de esta tendencia??
Hemos estado rastreando algo que nos gusta llamar UAIN: sitios web de noticias poco confiables generados por IA. Básicamente, es cualquier sitio que parezca ser un granja de contenido de próxima generación que utiliza IA para publicar artículos. Mientras mirábamos estos sitios, noté estos errores de publicación [muchos de los artículos incluían restos descarados de uso de chatbots, incluyendo frases como “Como modelo de lenguaje IA , no estoy seguro de las preferencias de los lectores humanos…”]. Me di cuenta de que nunca antes habíamos tenido la capacidad de codificar y reescribir un artículo de noticias. en un abrir y cerrar de ojos. Quería ver cuántos sitios usaban IA para hacer esto, y ese fue más o menos el comienzo. de ello.
Lléveme a través del proceso de plagio de IA. ¿Cómo podría una persona o un sitio web tomar un artículo del New York Times e introducirlo en un chatbot y obtener una historia “original”?
Una de las principales conclusiones es que muchos de estos sitios parecen estar haciendo esto. automáticamente—lo que significa que han automatizado totalmente el proceso de copia. Es probable que los programadores de un sitio configuren un código donde tengan algunos objetivos sitios web; utilizan robots para rastrear esos sitios web en busca de contenido y luego introducen los datos en una API modelo de lenguaje grande, como ChatGPT. Luego, los artículos se publican automáticamente, sin necesidad de ser humano. Por eso creo que estamos viendo que aparecen estos mensajes de “error”, porque el proceso no es fluido todavía, al menos no para los sitios que encuestamos. Obviamente, la siguiente pregunta es: bueno, si estos son los sitios que son más descuidados, ¿cuántos cientos, si no miles, son un poco más cuidadosos y están eliminando esos mensajes de error o han hecho que el proceso sea completamente fluido.
¿Cuáles cree que son las implicaciones para la industria de las noticias? Se podría argumentar que, si esta tendencia se vuelve lo suficientemente grande, se estará desviando descargar tráfico web de organizaciones de medios legítimas.
Diré dos cosas. La primera y más importante cosa que la industria de las noticias debe descubrir es cómo definir esta tendencia. .¿Es plagio turbo o es una agregación eficiente? Creo que eso depende de los medios de noticias que están siendo impactados y también que los tribunales decidan. La otra cosa que diré es que... [esta tendencia] tiene un impacto nuestro ecosistema de información. Incluso si estos sitios no están publicando información errónea per se, si están aumentando, exponencialmente, la cantidad de artículos que inundan los caminos a través de los cuales obtenemos nueva información, va a ser muy difícil para la persona promedio separar el contenido de calidad del contenido de baja calidad. Eso tiene un impacto en nuestra experiencia lectora y lo difícil que es acceder a información de calidad.
¿Qué pasa con la industria de la IA? ¿Qué responsabilidad tienen las empresas de IA para ayudar a resolver este problema??
Lo que diré es que una de las grandes cosas con las que nos encontramos cuando estábamos investigando esta historia son las marcas de agua... una de las cosas que encontramos cuando estábamos investigando ciertas salvaguardias que podrían implementarse para detener esto. Una vez más, esto corresponde a los gobiernos, los políticos y las propias empresas de IA decidir [si quieren lograr eso].
¿Crees que los periodistas humanos deberían preocuparse por esto? Un porcentaje significativo de la industria del periodismo ahora gira en torno a la agregación de noticias. Si se puede conseguir que un robot haga eso con muy poco esfuerzo, ¿no parece probable que las empresas de medios avancen hacia ese modelo? ¿Porque no tendrán que pagar un algoritmo para generar contenido para ellos?
Sí, supongo que lo que diré es que puedes imaginar un mundo donde unos pocos sitios crean contenido original y miles y miles de robots están copiando, reescribiendo y escupiendo versiones de ese contenido original. Creo que eso es algo que todos deberíamos estar preocupado por.
Una versión anterior de esta historia indicaba erróneamente la universidad en la que trabaja Barry Brown. En realidad, trabaja en dos universidades.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.