
¡Hola! Estamos lanzando oficialmente una COSA. Será un resumen semanal sobre lo que está sucediendo en la inteligencia artificial y cómo afecta usted.
Titulares de esta semana
- Un “mealbot” de Nueva Zelanda alzó algunas cejas esta semana cuando sugirió Recetas que podrían crear cloro gaseoso. Tal vez fue entrenado con datos de ted Kaczynski?
- El espeluznante del gurú Sam Altman proyecto worldcoin ya está en algún tipo de problema—en Kenia, de todos los lugares.
- Google y una de las mayores empresas de la industria musical, Universal Music, están negociando un trato eso permitiría que las voces y melodías de los artistas tengan licencia para generar canciones de IA . Grimes debe estar emocionado.
- Una aplicación automatizada que puede convierte las fotos de iPhone en poemas? Ese es un invento útil, ¿verdad? ¿Verdad?
- Disney ha lanzado un grupo de trabajo de IA para ayudar a automatizar su Reino Mágico. mundo occidental, allá vamos.
La historia principal: la debacle de TOS de Zoom y lo que significa para el futuro de la privacidad web

No es ningún secreto que el modelo de negocio de Silicon Valley gira en torno a aspirando una cantidad repugnante de datos de consumidores y venderlos al mejor postor. Si usa Internet, tu eres el producto—esto es “capitalismo de vigilancia”101. Pero, después del gran éxito de Zoom Debacle de los términos de servicio A principios de esta semana, hay algunas señales de que el capitalismo de vigilancia puede estar cambiando de forma hacia una nueva y terrible bestia, gracias en gran parte a la IA.
En caso de que te lo hayas perdido, Zoom ha sido brutalmente ridiculizado por un cambio que hizo recientemente en sus términos de servicio. Ese cambio en realidad sucedió en marzo, pero la gente no se dio cuenta hasta esta semana, cuando un blogger señaló el cambio de política en una publicación eso se volvió viral en Hacker News. El cambio, que se produjo en el apogeo de la IA frenesí exagerado, le dio a Zoom un derecho exclusivo a aprovechar los datos de los usuarios para entrenar futuros módulos de IA. Más específicamente, Zoom reclamó un derecho a un “perpetuo “Licencia mundial, no exclusiva, libre de regalías, sublicenciable y transferible” a los datos de los usuarios que, según se interpretó, incluía los contenidos de llamadas de videoconferencia y mensajes de usuario. Baste decir que la reacción fue rápida y atronadora, e Internet realmente azotó a la empresa.
Dado que las nubes de tormenta iniciales han pasado, Zoom ha prometido que, de hecho, no utiliza datos de videoconferencia para entrenar IA y ha incluso actualizó sus términos de servicio (nuevamente) para dejar esto explícitamente claro. Pero ya sea que Zoom esté devorando sus datos o no, la controversia de esta semana indica claramente una alarmante nuevo tendencia en cual empresas ahora usando todos los datos que han recopilado sobre los usuarios para entrenar productos de inteligencia artificial nacientes.
Muchos de ellos luego se dan la vuelta y vender esos servicios de IA a los mismos usuarios cuyos datos ayudaron a construir los productos en primer lugar. Tiene sentido que las empresas estén haciendo esto, ya que cualquier mención fugaz de el término “IA” Esto pone nerviosos a los inversores y accionistas. Aún así, los mayores infractores aquí son las empresas que ya poseen vastas franjas de información mundial. , haciéndolo particularmente espeluznante y legalmente raro situación. Google, por ejemplo, recientemente lo hizo conocido que ha estado explorando la web para entrenar sus nuevos algoritmos de IA. Grandes proveedores de IA como OpenAI y A mitad del viajeMientras tanto, también han aspirado la mayor parte de Internet en un esfuerzo por acumular suficientes datos para respaldar sus plataformas. Harvard Business Review acaba de publicarse una guía “práctica” para las empresas que desean transformar sus datos en jugo de algoritmos, por lo que estoy seguro de que podemos esperar aún más infractores en el futuro.
Entonces, ¿cuán preocupados deberíamos estar por esta nociva mezcla de recopilación de datos? ¿y la automatización? Katharine Trendacosta, directora de políticas y defensa de la Electronic Frontier Foundation (y ex empleada de Gizmodo), le dijo a Gizmodo que ella no necesariamente piensa que la IA generativa esté acelerando el capitalismo de vigilancia. Dicho esto, no desacelerando ello, tampoco.
“No sé si el [capitalismo de vigilancia] puede ser más Turbo, francamente, ¿a qué más puede tener acceso Google?”, dice. En cambio, la IA simplemente está dando a empresas como Google uno Más formas de monetizar y utilizar todos los datos que han acumulado.
“Los problemas con la IA no tienen nada que ver con la IA”, dice Trendacosta. El verdadero problema es el vacío regulatorio en torno a estas nuevas tecnologías, lo que permite a las empresas utilizarlos de una manera ciegamente impulsada por las ganancias y obviamente poco ética, dice.. “Si tuviéramos una ley de privacidad, no tendríamos que preocuparnos por la IA. Si tuviéramos protecciones laborales, no Tenemos que preocuparnos por la IA. Toda la IA es una máquina de reconocimiento de patrones. Por lo tanto, el problema no son las características específicas de la tecnología. Es cómo se usa y qué se alimenta».
Vigilancia de políticas

Con la mayor frecuencia posible, intentaremos actualizar a los lectores sobre el estado de la regulación de la IA (o la falta de ella). enorme potencial disruptivo de esta tecnología, simplemente tiene sentido que los gobiernos aprueben algunas nuevas leyes. ¿Lo harán? Eh...
DEEPFAKES EN ANUNCIOS POLÍTICOS: OBVIAMENTE UN PROBLEMA.
La Comisión Electoral Federal no puede decidir si el contenido generado por IA en la publicidad política es un problema o no. Se envió una petición a la agencia por el grupo de defensa Público Ciudadano ha preguntado que considere regular los medios de comunicación “deepfake” en los anuncios políticos. Esta semana, la FEC decidió avanzar en la petición del grupo, abriendo el Posible elaboración de reglas para un período de comentarios públicos. En junio, la FEC llegó a un punto muerto en una petición similar de Public Citizen, con algunos reguladores. “expresando escepticismo de que tenían la autoridad para regular los anuncios de IA ”, la Associated Press informes. El grupo de defensa se vio entonces obligado a regresar con una nueva petición que explicaba a la agencia federal por qué lo hizo. De hecho, tienen jurisdicción para hacerlo. Algunos reguladores republicanos siguen sin estar convencidos de su propia autoridad, tal vez porque el propio Partido Republicano ha estado teniendo un día de campo con IA en anuncios políticos. Si cree que la IA no debería usarse en publicidad política, puede escribe a la FEC a través de su sitio web.
EL MODELO DE FRONTERA: UNA ESTAFA DE AUTORREGULACIÓN
La semana pasada, un pequeño consorcio de grandes actores en el espacio de la IA, a saber, OpenAI, Anthropic, Google y Microsoft, lanzaron el Foro del modelo de frontera, un organismo industrial diseñado para guiar el auge de la IA y al mismo tiempo ofrecer sugerencias regulatorias suavizadas a los gobiernos. El foro, que dice quiere “avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos de frontera y minimizar los riesgos potenciales”, se basa en una legislación débil. visión promulgada por la misma OpenAI. La llamada Modelo de “IA de frontera”, que fue descrito en un reciente publicado estudiar, se centra en cuestiones de “seguridad” de la IA y hace algunas sugerencias leves sobre cómo los gobiernos pueden mitigar el impacto potencial de los programas automatizados que “podrían exhiben capacidades peligrosas”. Dado lo bien que ha funcionado el modelo de autorregulación de Silicon Valley trabajado para nosotros hasta ahora, ciertamente uno esperaría que nuestros legisladores designados se despertaran y anularan esta hoja de ruta legal interesada y orientada a las ganancias.
Se puede comparar la predecible aquiescencia de Estados Unidos ante el poder corporativo con lo que está sucediendo al otro lado del charco, donde Gran Bretaña está en el proceso de preparándose para un cumbre mundial sobre IA que será el anfitrión. La cumbre también sigue el rápido desarrollo de la La “Ley de IA” de la Unión Europea una propuesta de marco regulatorio que crea modestas barreras de seguridad para los sistemas comerciales de inteligencia artificial. ¡Hola, Estados Unidos, toma nota!
ORGANISMOS DE NOTICIAS AL GOBIERNO: POR FAVOR REGULEN LA IA ANTES DE QUE DESTRUYA TODA NUESTRA INDUSTRIA
Esta semana, varios conglomerados de medios escribieron una carta abierta instando a que se aprueben las regulaciones sobre IA. La carta, firmada por Gannet, Associated Press y varios otros medios estadounidenses y europeos empresas y organizaciones comerciales, dice que “apoyan el avance y el despliegue responsable de la tecnología de IA generativa, al tiempo que creen que se debe establecer un marco legal. desarrollarse para proteger el contenido que impulsa las aplicaciones de IA, así como para mantener la confianza del público en los medios que promueven hechos y alimentan nuestra democracias.” Aquellos en los medios de comunicación tienen buenas razones para desconfiar de las nuevas tecnologías automatizadas. Las organizaciones de noticias (incluidos los que firmaron este documento) carta) han estado trabajando duro para posicionarse ventajosamente en relación con una industria que amenaza con comérselos al por mayor si no tienen cuidado.
Pregunta del día: De quién es el trabajo menos ¿En riesgo de ser robado por un robot?

Todos hemos oído que los robots están llegando a robar nuestros trabajos y se ha hablado mucho sobre quién será la cabeza en la tabla de cortar primero. Pero otra pregunta que vale la pena hacerse es: ¿quién es el menos ¿Es probable que sea despedido y reemplazado por un algoritmo corporativo? La respuesta aparentemente es: barberos. Esa respuesta proviene de un estudio publicado recientemente. Informe de investigación de Pew que analizó los trabajos considerados más “expuestos” a la inteligencia artificial (lo que significa que tienen más probabilidades de ser automatizados). barberos, las personas con menos probabilidades de ser reemplazadas por un chatbot incluyen a los lavaplatos, los trabajadores de cuidado infantil, los bomberos y los tiendetubos, según el informeMientras tanto, los desarrolladores web y los analistas de presupuestos están en la cima de la lista de objetivos de la IA.
La entrevista: Sarah Meyers West sobre la necesidad de un marco regulatorio de la IA “Confianza cero”

De vez en cuando, incluiremos una entrevista con un destacado defensor de la IA, crítico, excéntrico, emprendedor u otra persona similar que está conectado con el campo. Pensamos que comenzaríamos con Sarah Myers West, quien ha llevado una carrera muy condecorada en el sector artificial. investigación en inteligencia. Entre carreras académicas, recientemente se desempeñó como consultora en IA para la Comisión Federal de Comercio y, en estos días, sirve como director gerente de la Instituto AI Now, que aboga por la regulación de la industria. Esta semana, West y otros lanzaron una nueva estrategia para la regulación de la IA denominada Modelo de “Confianza Cero”, que aboga por una acción federal fuerte para salvaguardar contra los impactos más dañinos de la IA. Esta entrevista ha sido ligeramente editada por razones de brevedad y claridad.
Has estado investigando la inteligencia artificial durante bastante tiempo. ¿Cómo te interesaste por primera vez en este tema? ¿Qué te resultaba atractivo (o alarmante? ) sobre ello? ¿Qué te enganchó?
Mi experiencia es como investigador que estudia la economía política de la industria tecnológica. Ese ha sido el enfoque principal de mi trabajo principal a lo largo del la última década, rastreando cómo se comportan estas grandes empresas tecnológicas. Mi trabajo anterior se centró en el advenimiento de la vigilancia comercial como modelo de negocio de tecnologías en red. El momento “cámbrico” de la IA es, en muchos sentidos, un subproducto de esas dinámicas de vigilancia comercial: fluye desde allí.
También escuché que eras un gran admirador de parque jurásico Cuando eras más joven. Siento que los temas de esa historia definitivamente se relacionan mucho con lo que está pasando con Silicon Valley estos días. ¿También eres fanático de Westworld?
Oh, Dios... No creo que haya superado todas las estaciones.
Definitivamente parece una advertencia que nadie escucha.
La cantidad de advertencias de Hollywood sobre la IA realmente abunda. Pero en algunos aspectos creo que también tiene un efecto perjudicial porque posiciona la IA como este tipo de amenaza existencial que es, en muchos sentidos, una distracción de la muy real realidad de cómo funcionan los sistemas de IA. están afectando a las personas en el aquí y ahora.
¿Cómo se desarrolló el modelo regulatorio “Confianza Cero”? Supongo que se trata de una jugada concepto de ciberseguridad, en el que sé que también tienes experiencia.
Mientras consideramos el camino a seguir para lograr la rendición de cuentas de la IA, es realmente importante que adoptemos un modelo que no ponga en primer plano autorregulación, que ha caracterizado en gran medida el enfoque [de la industria tecnológica] durante la última década. Al adoptar un mayor escrutinio regulatorio, tenemos que tomar una posición de “confianza cero” en la que las tecnologías se verifiquen constantemente [que no estén causando daño a ciertas poblaciones, o a la población escribir en grande].
¿Está usted familiarizado con el Foro Frontier, que se acaba de lanzar la semana pasada?
Sí, me resulta familiar y creo que es exactamente el ejemplo de lo que no podemos aceptar. Creo que sin duda es bienvenido que el Las empresas están reconociendo algunas preocupaciones fundamentales pero, desde un punto de vista político, no podemos dejar que estas empresas se regulen por sí mismas. Necesitamos una responsabilidad fuerte y fortalecer el escrutinio regulatorio de estos sistemas antes son de uso comercial amplio.
También presenta algunas posibles aplicaciones de IA, como el reconocimiento de emociones, la vigilancia policial predictiva y la puntuación social, como aquellas que deberían prohibirse activamente. ¿destacó sobre aquellos como siendo una gran línea roja?
Creo que, desde un punto de vista político, deberíamos frenar por completo los mayores daños de los sistemas de IA... Tomemos como ejemplo el reconocimiento de emociones. Existe un consenso científico generalizado de que el uso de sistemas de IA que intentan inferir cualquier cosa sobre su estado interno (emocionalmente) es pseudocientífico. No tiene ninguna validez significativa; hay evidencia sólida que respalda eso. amplio uso comercial, particularmente en los tipos de entornos donde se implementa el reconocimiento de emociones. Uno de los lugares donde estos sistemas se utilizan son autos.
¿Dijiste autos?
Sí, una de las empresas que estaba bastante al frente y al centro del mercado del reconocimiento de emociones, Affectiva, fue adquirida por una empresa de tecnología para automóviles . Es uno de los casos de uso en desarrollo.
Interesante... ¿para qué usarían la IA en un automóvil?
Hay una empresa llamada Netradyne y tienen un producto llamado “Driveri”. Están acostumbrados a monitorear a los conductores de reparto. Están observando las caras de los conductores y les dicen: “Parece que te estás quedando dormido, necesitas despertar”. Pero el sistema está siendo instrumentados de maneras que buscan determinar la eficacia de un trabajador o su productividad... Los centros de llamadas es otro dominio donde se utiliza la [IA] .
¿Supongo que se utiliza para controles de productividad?
Más o menos. Se utilizarán para monitorear el tono de voz del empleado y sugerir ajustes o monitorear la voz. de la persona que llama y le dice al trabajador del centro de llamadas cómo debe responder... En última instancia, estas herramientas tienen que ver con el control . Se trata de instrumentar el control sobre los trabajadores o, en términos más generales, los sistemas de inteligencia artificial tienden a usarse de maneras que mejoran la información. asimetría entre las personas que manejan los sistemas y el resto de nosotros.
Durante años, todos hemos sabido que una ley federal de privacidad sería algo fantástico. Por supuesto, gracias a la tecnología El lobby de la industria nunca ha sucedido. La estrategia “Confianza Cero” aboga por regulaciones federales sólidas en el corto plazo pero, en muchos sentidos, Parece que eso es lo último que el gobierno está preparado para ofrecer. ¿Hay alguna esperanza de que la IA sea diferente a lo digital? ¿privacidad?
Sí, definitivamente entiendo el cinismo. Por eso el marco de “Confianza Cero” comienza con la idea de utilizar las herramientas [regulatorias] que ya lo hemos hecho: hacer cumplir las leyes existentes por parte de la FTC en diferentes dominios seccionales es la manera correcta de comenzar. Hay una señal importante de que hemos visto desde las agencias de ejecución , que fue la carta conjunta desde hace unos meses , que expresaron su intención de hacer justo eso. Dicho esto, definitivamente vamos a necesitar fortalecer las leyes en los libros y delineamos una serie de caminos a seguir que el Congreso y la Casa Blanca pueden tomar. La Casa Blanca ha expresó su intención de utilizar acciones ejecutivas para abordar estas preocupaciones.
Ponte al día con todo Noticias de IA de Gizmodo aquí, o ver todas las últimas noticias aquí. Para actualizaciones diarias, suscríbete al boletín gratuito de Gizmodo.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.