Saltar al contenido
Tecnología

Elon Musk y otros Doomers le dieron al mundo de la IA un aneurisma esta semana

Hay una disputa cada vez mayor en el mundo de la tecnología sobre la dirección que deben tomar las regulaciones de IA. Y Elon afirma que está listo para implementar su IA producto.
Por

Tiempo de lectura 9 minutos

Bienvenido a AI This Week, el resumen semanal de Gizmodo donde profundizamos en lo que ha estado sucediendo en la inteligencia artificial.

Mientras los gobiernos buscan a tientas un enfoque regulatorio para la IA, todos en el mundo tecnológico parecen tener una opinión sobre cuál debería ser ese enfoque. y la mayoría de esas opiniones no se parecen entre sí. Baste decir que esta semana presentó muchas oportunidades para que los nerds de la tecnología Se gritan unos a otros en línea, mientras se producían dos importantes avances en el espacio de las regulaciones de IA, que inmediatamente estimularon el debate.

El primero de esos grandes acontecimientos fue la muy promocionada cumbre de inteligencia artificial, en el que el primer ministro del Reino Unido, Rishi Sunak, invitó a algunos de los directores ejecutivos y líderes tecnológicos más importantes del mundo a Bletchley Park, hogar de Los descifradores de códigos de la Segunda Guerra Mundial del Reino Unido, en un esfuerzo por descubrir la promesa y el peligro de la nueva tecnología. El evento estuvo marcado por un muchas grandes afirmaciones sobre los peligros de la tecnología emergente y terminaron con un acuerdo sobre las pruebas de seguridad de nuevos modelos de software. El segundo evento (posiblemente más grande) que ocurrió esta semana fue la presentación de la orden ejecutiva de IA de la administración Biden, que estableció algunas iniciativas regulatorias modestas en torno a la nueva tecnología en EE.UU. Entre muchas otras cosas, la OE también involucró una compromiso corporativo con las pruebas de seguridad de modelos de software.

Sin embargo, algunos críticos prominentes han argumentado que los esfuerzos de Estados Unidos y el Reino Unido para disputar la inteligencia artificial han estado demasiado influenciados por una cierta tensión. de doomerismo respaldado por las corporaciones que los críticos ven como una estratagema calculada por parte de las empresas más poderosas de la industria tecnológica. En teoría, empresas como Google, Microsoft y OpenAI están utilizando la IA para alarmar en un esfuerzo por silenciar la investigación de código abierto en la tecnología como además de hacer que resulte demasiado oneroso para las pequeñas empresas emergentes operar manteniendo su desarrollo firmemente dentro de los límites de sus propios laboratorios corporativos. la acusación que sigue apareciendo es “captura regulatoria”. 

Esta conversación salió a la luz el lunes con la publicación de una entrevista con Andrew Ng, profesor de la Universidad de Stanford y fundador de Google Brain. “Definitivamente hay grandes empresas tecnológicas que preferirían “No tenemos que intentar competir con la [IA] de código abierto, por lo que están creando miedo a que la IA conduzca a la extinción humana”, dijo Ng. Ng también dijo que dos ideas igualmente malas se habían unido a través del discurso doomista: que “la IA podría hacernos extinguirse” y que, en consecuencia, “una buena manera de hacer que la IA sea más segura es imponer onerosos requisitos de licencia” a los productores de IA.

Rápidamente llegaron más críticas por parte de Yann LeCun, el principal científico de IA de Meta y un gran defensor de la investigación de IA de código abierto, quien se metió en una pelea con otro técnico en X sobre cómo los competidores de Meta estaban intentando controlar el campo para ellos . “Altman, Hassabis y Amodei son los que hacen un lobbying corporativo masivo En este momento”, dijo LeCun, en referencia a OpenAI, Google y los principales ejecutivos de IA de Anthropic. “Ellos son los que están intentando realizar una captura regulatoria de la industria de la IA. Usted, Geoff y Yoshua están dando municiones a aquellos que están presionando por una Prohibición de la investigación y el desarrollo en IA abierta”, dijo.

Después de que circularan los comentarios de Ng y LeCun, el actual director ejecutivo de Google Deepmind, Demis Hassabis, se vio obligado a responder. entrevista con CNBC, dijo que Google no estaba tratando de lograr una “captura regulatoria” y dijo: “Estoy bastante en en desacuerdo con la mayoría de esos comentarios de Yann”.

Como era de esperar, Sam Altman finalmente decidió saltar a la refriega para que todos supieran que no, en realidad, es un gran tipo y todo esto Asustar a la gente para que se someta a sus intereses comerciales realmente no es su estilo. El jueves, el CEO de OpenAI tuiteó:

Hay algunas partes excelentes sobre la AIEO, pero a medida que el gobierno la implemente, será importante no desacelerar la innovación. por empresas/equipos de investigación más pequeños. Estoy a favor de la regulación de los sistemas fronterizos, que es lo que openai ha estado pidiendo, y en contra de la captura regulatoria. .

“Entonces, captúralo es entonces” una persona comentó, debajo del twitt de Altman.

Por supuesto, ninguna disputa sobre la IA estaría completa sin un bocado saludable del troll de Internet más lleno de opiniones del mundo y Financiador de IA, Elon Musk. Musk se dio a sí mismo la oportunidad de proporcionar ese bocado esta semana al obligar de alguna manera a Sunak del Reino Unido a realizar una entrevista con él (Musk), que fue más tarde transmitido al propio sitio web de Musk, X. Durante la conversación, en la que Sunak parecía querer tomar una siesta y, somnoliento, le hacía al multimillonario una serie de preguntas. , Musk logró incluir algunos ismos clásicos de Musk. Los comentarios de Musk no fueron tan estimulantes ni estaban arraigados en ningún tipo de Las discusiones sobre políticas eran tontas y entretenidas, que es más bien el estilo de retórica en el que sobresale.

En la lista de comentarios de Musk se incluyó que la IA eventualmente creará lo que él llamó “un futuro de abundancia donde no haya escasez de bienes y servicios” y donde el trabajo promedio es básicamente redundante. Sin embargo, el multimillonario también advirtió que todavía deberíamos preocuparnos Una especie de “superinteligencia” impulsada por IA y esos “robots humanoides” que pueden “perseguirte hasta un edificio o subir a un árbol” También eran algo potencial de qué preocuparse.

Cuando la conversación giró hacia las regulaciones, Musk afirmó que estaba “de acuerdo con la mayoría de las regulaciones, pero dijo, sobre la IA: “En general, pienso Es bueno que el gobierno desempeñe un papel cuando la seguridad pública está en riesgo. Realmente, para la gran mayoría del software, la seguridad pública es No está en riesgo. Si una aplicación falla en su teléfono o computadora portátil, no es una catástrofe masiva. Pero cuando hablamos de superinteligencia digital —lo que sí plantea un riesgo para el público—entonces el gobierno tiene un papel que desempeñar”. En otras palabras, cada vez que se inicia el software parecido a esa cosa desde la más película reciente misión imposible Entonces Musk probablemente se sentirá cómodo con la participación del gobierno. Hasta entonces… ehhh.

Es posible que Musk quiera que los reguladores posterguen cualquier tipo de política seria, ya que su propia compañía de inteligencia artificial aparentemente estrenará su tecnología pronto. un tuit en X El viernes, Musk anunció que su startup, xAI, planeaba “lanzar su primera IA a un grupo selecto” el sábado y que esta tecnología estaba en algunos “aspectos importantes”, “Lo mejor que existe actualmente”. Eso es tan claro como el barro, aunque probablemente sería seguro asumir que las promesas de Musk están en alguna parte. en el mismo vecindario de hipérbole que sus comentarios originales sobre el bot tesla.

La entrevista: Samir Jain sobre el primer intento de la administración Biden de abordar la IA

Photo: Center for Democracy and Technology
Photo: Center for Democracy and Technology

Esta semana hablamos con Samir Jain, vicepresidente de políticas del Centro para la Democracia y la Tecnología, para conocer su opinión sobre la tan esperada orden ejecutiva de la Casa Blanca sobre inteligencia artificial. La EO de la administración Biden está siendo considerada como el primer paso en una proceso regulatorio que podría tardar años en desarrollarse. Algunos espectadores elogiaron los esfuerzos de la administración Biden; otros no estaban tan emocionados. Jain habló con contanos sobre sus pensamientos sobre la legislación, así como sus esperanzas para una futura regulación. Esta entrevista ha sido editada para mayor brevedad y claridad.

Solo quería recibir su respuesta inicial a la orden ejecutiva de Biden. ¿Está satisfecho con ella? ¿Esperanzado? ¿O le apetece? ¿Deja algunas cosas fuera?  

En general, estamos satisfechos con la orden ejecutiva. Creemos que identifica muchas cuestiones clave, en particular los daños actuales que están ocurriendo, y que realmente trata de reunir a diferentes agencias del gobierno para abordar esos problemas. Hay mucho trabajo por hacer hacer para implementar la orden y sus directivas. Entonces, en última instancia, creo que el juicio sobre si es una EO efectiva o no girará en un grado significativo sobre cómo vaya esa implementación. La pregunta es si esas agencias y otras partes del gobierno llevarán a lanzamiento de esas tareas de manera efectiva. En términos de establecer una dirección, en términos de identificar problemas y reconocer que la administración sólo puede actuar dentro del marco alcance de la autoridad que tiene actualmente… estábamos bastante satisfechos con la naturaleza integral de la OE.

Una de las cosas que la EO parece estar tratando de abordar es esta idea de los daños a largo plazo en torno a la IA y algunas de las potencialidades más catastróficas de la forma en que podría ser ejercido. Parece que la orden ejecutiva se centra más en los daños a largo plazo en lugar de los de corto plazo. ¿Diría que es cierto?

No estoy seguro de que sea cierto. Creo que estás caracterizando la discusión correctamente, en el sentido de que existe esta idea de que hay un dicotomía entre los daños de “largo plazo” y “corto plazo”. Pero en realidad creo que, en muchos aspectos, es una falsa dicotomía. una falsa dicotomía en el sentido de que deberíamos tener que elegir uno u otro y, de hecho, no deberíamos; y, Además, mucha la infraestructura y las medidas que ustedes tomarían para hacer frente a los daños actuales, también ayudarán a abordar con cualquier daño a largo plazo que pueda haber. Entonces, si, por ejemplo, hacemos un buen trabajo promoviendo y afianzando la transparencia, en términos del uso y la capacidad de los sistemas de IA, eso también nos ayudará cuando nos ocupemos de abordar los daños a más largo plazo.

Con respecto a la EO, aunque ciertamente hay disposiciones que abordan los daños a largo plazo… en realidad hay muchas cosas en la EO: Yo iría tan lejos como para decir que la mayor parte de la EO aborda los daños actuales y existentes. Está dirigiendo al Secretario de Trabajo para mitigar los posibles daños derivados del seguimiento de los trabajadores basado en IA; está pidiendo a las oficinas de Vivienda y Desarrollo Urbano y de Protección Financiera del Consumidor que Desarrollar orientación sobre la selección algorítmica de inquilinos; está dirigiendo al Departamento de Educación a descubrir algunos recursos y orientación sobre la evaluación segura y no discriminatoria. uso de la IA en la educación; le está diciendo al Departamento de Salud y Servicios Humanos que observe la administración de beneficios y se asegure de que la IA no socava la administración equitativa de los beneficios. Me detendré ahí, pero eso es todo para decir que creo que ayuda mucho respecto a la protección contra los daños actuales.

Más titulares esta semana

La carrera para reemplazar su smartphone está liderada por el extraño pin AI de Humane. Las empresas tecnológicas quieren sacar provecho de la fiebre del oro de la IA y muchas de ellas están ocupadas intentando lanzar dispositivos portátiles impulsados por algoritmos. eso hará que su teléfono inteligente quede obsoleto. A la cabeza del grupo está Humane, una startup fundada por dos ex empleados de Apple, es decir programado para presenta su tan esperado pin de IA La próxima semana. El pin de Humane es en realidad un pequeño proyector que se coloca en la parte delantera de la camisa; el dispositivo está equipado con un modelo patentado en lenguaje grande impulsado por GPT-4 y supuestamente puede responder y hacer llamadas por usted, leer sus correos electrónicos por usted y generalmente actua como un dispositivo de comunicación y asistente virtual.

Los grupos de noticias publican investigaciones que señalan cuánto contenido de noticias se utiliza para entrenar algoritmos de IA. El New York Times informes que la News Media Alliance, un grupo comercial que representa a numerosos medios de comunicación importantes (incluido el Times), ha publicado una nueva investigación que alega que Muchos modelos en grandes idiomas se construyen utilizando material protegido por derechos de autor de sitios de noticias. Esta es potencialmente una gran noticia, ya que actualmente se está gestando una pelea si las empresas de IA pueden haber infringido legalmente los derechos de las organizaciones de noticias cuando construyeron sus algoritmos.

El reconocimiento facial impulsado por IA ahora se utiliza contra los gansos por alguna razón. En lo que parece un extraño presagio del fin de los tiempos, informes NPR que el Estado de vigilancia ha llegado para las aves acuáticas del mundo. Es decir, los académicos de Viena admitieron recientemente haber escrito un Programa de reconocimiento facial impulsado por IA diseñado para gansos; el programa recorre bases de datos de caras de gansos conocidas y busca identificar aves individuales mediante características distintas del pico. No estoy seguro de por qué exactamente esto es necesario, pero no puedo dejar de reírme de ello.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias.Para la versión original, haga clic aquí.

Compartir esta historia

Artículos relacionados