Tecnología, ciencia y cultura digital
We may earn a commission from links on this page

AI esta semana: La gran reunión de Chuck con Zuck y Elon

Mientras el Congreso reflexiona sobre las regulaciones de IA, Silicon Valley está presionando fuertemente contra ellas. Además: ¿por qué la marca de agua de IA puede no ser la solución general que esperamos? lo es.

We may earn a commission from links on this page.
Imagen para el artículo titulado AI esta semana: La gran reunión de Chuck con Zuck y Elon
Foto: Kevin Dietsch (Getty Images)

Titulares de esta semana

  • En lo que seguramente será una buena noticia para los trabajadores de oficina perezosos de todo el mundo, ahora puedes pagar 30 dólares al mes para tener Google. Dúo IA escribir correos electrónicos para ti.
  • Google también ha presentado una herramienta de marca de agua, SynthID, para una de sus filiales de generación de imágenes con IA. Entrevistamos a un profesor de informática sobre por qué Eso puede (o no ) ser una buena noticia.
  • Por último, pero no menos importante: ahora es su oportunidad de decirle al gobierno lo que piensa sobre las cuestiones de derechos de autor en torno a las herramientas de inteligencia artificial. La oficina ha abierto oficialmente comentario público. Puede enviar un comentario utilizando el portal en su sitio web.
Imagen para el artículo titulado AI esta semana: La gran reunión de Chuck con Zuck y Elon
Foto: VegaTews (Shutterstock)
Advertisement

La historia principal: La Cumbre de IA de Schumer

Chuck Schumer ha anunciado que su oficina se reunirá con los mejores actores en el campo de la inteligencia artificial a finales de este mes, en un esfuerzo por recopilar aportes que puede informar las próximas regulaciones. Como líder de la mayoría del Senado, Schumer tiene un poder considerable para dirigir la forma futura de las regulaciones federales, en caso de que surjan. . Sin embargo, las personas que asisten a esta reunión no representan exactamente al hombre común. Los invitados a la próxima cumbre son megamillonarios de la tecnología Elon Musk, su único hipotético compañero de sparring El CEO de Meta Mark Zuckerberg, el CEO de OpenAI Sam Altman, el CEO de Google Sundar Pichai, el presidente de NVIDIA Jensen Huang, y Alex Karpy, CEO de defensa El contratista Palantir, entre otros grandes nombres de las altas esferas de Silicon Valley.

Advertisement
Advertisement

La próxima reunión de Schumer, que su oficina ha denominado “Foro de Insights sobre IA”, parece demostrar que alguno Es posible que se esté preparando algún tipo de acción regulatoria, aunque, por el aspecto de la lista de invitados (un grupo de buitres corporativos), no necesariamente parece que esa acción sea adecuada.

La lista de personas que asistieron a la reunión con Schumer ha gobtuvo considerables críticas en línea, de aquellos que lo ven como un verdadero quién es quién entre los actores corporativos. Sin embargo, la oficina de Schumer ha dicho que el Senador también se reunirá con algunos líderes sindicales y de derechos civiles, incluida la AFL-CIO, la federación de sindicatos más grande de Estados Unidos, cuya presidenta, Liz Schuler, aparecerá en la reunión. Aun así, es difícil no ver esta reunión a puerta cerrada como una oportunidad para la industria tecnológica de iniciar uno de Los políticos más poderosos de Estados Unidos a favor de la indulgencia regulatoria. Sólo el tiempo dirá si Chuck tiene las agallas para escuchar a sus mejores ángeles o si cederá ante los diablillos empapados de dinero en efectivo que planean posarse sobre su hombro y susurrarle cosas dulces.

Pregunta del día: ¿Cuál es el problema con SynthID?

como IA generativa Herramientas como ChatGPT y DALL-E se han vuelto muy populares, a los críticos les preocupa que la industria, que permite a los usuarios generar textos falsos y imágenes— generarán una enorme cantidad de desinformación en línea. La solución que se ha propuesto es algo llamado marca de agua, un sistema mediante el cual el contenido de IA se estampa de forma automática e invisible con un identificador interno en el momento de su creación, lo que permite reconocerlod as sintético más tarde. Esta semana, DeepMind de Google lanzó una versión beta de una herramienta de marcación de agua que dice que ayudará con esta tarea. SynthID está diseñado para funcionar para los clientes de DeepMind y les permitirá marcar los activos que crean como synthetic. Desafortunadamente, Google también ha hecho que la aplicación sea opcional, lo que significa que los usuarios no tendrán que sellar su contenido con ella si no lo hacen. quiero .

Advertisement
Imagen para el artículo titulado AI esta semana: La gran reunión de Chuck con Zuck y Elon
Foto: University of Waterloo

La entrevista: Florian Kerschbaum sobre la promesa y los obstáculos de la marca de agua con IA

Esta semana tuvimos el placer de hablar con el Dr. Florian Kerschbaum, profesor de la Escuela de Ciencias de la Computación David R. Cheriton en la Universidad de Waterloo. Kerschbaum ha estudiado extensamente los sistemas de marcas de agua en IA generativa. Queríamos preguntarle a Florian sobre el reciente lanzamiento de Google. SynthID y si pensó que era un paso en la dirección correcta o no. Esta entrevista ha sido editada para mayor brevedad y claridad.

Advertisement

¿Puedes explicar un poco cómo funciona la marca de agua con IA y cuál es su propósito?

La marca de agua básicamente funciona incrustando un mensaje secreto dentro de un medio particular que luego puedes extraer si conoces la clave correcta. El mensaje debe conservarse incluso si el recurso se modifica de alguna manera. Por ejemplo, en el caso de imágenes, si cambio la escala o iluminarlo o agregarle otros filtros, el mensaje debería conservarse.

Advertisement

Parece que este es un sistema que podría tener algunas deficiencias de seguridad. ¿Hay situaciones en las que un mal actor podría engañar a un sistema de marcas de agua? ?  

Las marcas de agua de imagen existen desde hace mucho tiempo. Han existido durante 20 a 25 años. Básicamente, todos los sistemas actuales pueden Se puede evitar si se conoce el algoritmo. Incluso podría ser suficiente si se tiene acceso al propio sistema de detección de IA. Incluso eso El acceso podría ser suficiente para romper el sistema, porque una persona podría simplemente hacer una serie de consultas, donde continuamente hará pequeños cambios. a la imagen hasta que el sistema finalmente ya no reconozca el activo. Esto podría proporcionar un modelo para engañar a la detección de IA en general.

Advertisement

La persona promedio que está expuesta a información errónea o desinformación no necesariamente revisará cada contenido que encuentre en su noticias para ver si tiene marca de agua o no. ¿No parece esto un sistema con algunas limitaciones graves?

Tenemos que distinguir entre el problema de identificar el contenido generado por IA y el problema de contener la difusión de noticias falsas. Están relacionados en el sentido de que la IA hace mucho más fácil la proliferación de noticias falsas, pero también se pueden crear noticias falsas manualmente, y ese tipo de contenido nunca será detectado por dicho sistema de [marca de agua]. Así que tenemos que ver las noticias falsas como un problema diferente pero relacionado . Además, no es absolutamente necesario que todos y cada usuario de la plataforma verifique [si el contenido es real o no ]. Hipotéticamente, una plataforma, como Twitter, podría verificar automáticamente por tí. La cosa es que Twitter en realidad no tiene ningún incentivo para hacer eso, porque Twitter efectivamente ejecuta fuera de las noticias falsas. Así que, si bien siento que, al final, seremos capaces de detectar contenido generado por IA , no Creo que esto resolverá el problema de las noticias falsas.

Advertisement

Aparte de las marcas de agua, ¿cuáles son otras posibles soluciones que podrían ayudar a identificar contenido sintético?

Básicamente, tenemos tres tipos. Tenemos marcas de agua, donde modificamos de manera efectiva la distribución de salida de un modelo ligeramente para que podamos reconocer El otro es un sistema mediante el cual se almacena todo el contenido de IA que se genera en una plataforma y luego se puede consultar. si un fragmento de contenido en línea aparece en esa lista de materiales o no... Y la tercera solución implica intentar detectar artefactos [ es decir, signos reveladores del material generado. Por ejemplo, cada vez más artículos académicos se escriben mediante ChatGPT. Si vas a un busque trabajos académicos e ingrese “Como modelo de lenguaje grande ...” [una frase que un chatbot escupiría automáticamente en el En el curso de generar un ensayo, encontrarás una gran cantidad de resultados. Estos artefactos definitivamente están presentes y si entrenamos algoritmos para reconocer esos artefactos, esa es otra forma de identificar este tipo de contenido.

Advertisement

Entonces, con esa última solución, básicamente estás usando IA para detectar IA, ¿verdad?

Sí.

Y luego, con la solución anterior, la que involucra una base de datos gigante de material generado por IA, parece que tendría algunos problemas de privacidad, ¿verdad?  

Advertisement

Así es. El desafío de la privacidad con ese modelo en particular tiene menos que ver con el hecho de que la empresa esté almacenando cada contenido creado, porque Todas estas empresas ya lo han estado haciendo. El mayor problema es que un usuario compruebe si una imagen es IA o no, tendrán que enviar esa imagen al repositorio de la empresa para verificarla. Y las empresas probablemente conservarán una copia de Ese también. Así que eso me preocupa.

Entonces, ¿cuál de estas soluciones es la mejor, desde tu perspectiva?

Cuando se trata de seguridad, creo firmemente en no poner todos los huevos en una sola canasta. Así que creo que Tendremos que utilizar todas estas estrategias y diseñar un sistema más amplio en torno a ellas. Creo que si hacemos eso, y Hágalo con cuidado, entonces tendremos una oportunidad de tener éxito.

Advertisement

Ponte al día con todo Noticias de IA de Gizmodo aquí, o ver todas las últimas noticias aquí. Para actualizaciones diarias, suscríbete al boletín gratuito de Gizmodo.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.