Bienvenido a AI This Week, la inmersión profunda semanal de Gizmodo sobre lo que ha estado sucediendo en la inteligencia artificial.
Después del impactante OpenAI de la semana pasada lucha por el poder, hubo una revelación final que actuó como una especie de epílogo del desastre en expansión: un informe de Reuters que reveló un avance supuestamente sorprendente en la startup. Ese avance supuestamente ocurrió a través de un programa poco conocido llamado “Q-Star” o “Q*.”
Según el informe, una de las cosas que pudo haber iniciado el conflicto interno en la influyente empresa de IA fue este Q relacionado “descubrimiento”. Antes del derrocamiento de Altman, varios miembros del personal de OpenAI supuestamente escribieron a la junta directiva de la empresa sobre un “poderoso descubrimiento de inteligencia artificial que dijo podría amenazar a la humanidad”. Esta carta fue “un factor entre una lista más larga de quejas de la junta que condujeron al despido de Altman”, Reuters afirmó, citando fuentes anónimas.
Francamente, la historia sonaba bastante loca. ¿Qué era este nuevo y extraño programa y por qué supuestamente causó todo el caos en ¿OpenAI? Reuters afirmó que el programa Q* había logrado permitir que un agente de IA hiciera “matemáticas a nivel de escuela primaria”, un resultado sorprendente. avance tecnológico, de ser cierto, podría precipitar mayores éxitos en la creación de inteligencia general artificial, o AGI, dijeron fuentes. informe de The Information reiteró en gran medida muchos de los puntos expresados en el artículo de Reuters.
Aún así, los detalles que rodean este supuesto programa Q no han sido compartidos por la compañía, dejando solo los informes de fuentes anónimas y la especulación desenfrenada en línea. en cuanto a cuál podría ser la verdadera naturaleza del programa.
Algunos han especulado que el programa podría (debido a su nombre) tener algo que ver con Q-learning, una forma de aprendizaje automático. Entonces, sí, ¿qué es Q-learning y cómo podría aplicarse al programa secreto de OpenAI?
En general, hay un par de formas diferentes de enseñarle a un programa de IA a hacer algo. Una de ellas se conoce como “aprendizaje supervisado”, y funciona alimentando a agentes de IA grandes tramos de datos “etiquetados”, que luego se utiliza para entrenar el programa para que realice una función por sí mismo (normalmente esa función es más clasificación de datos). Se crearon grandes programas como ChatGPT, el robot generador de contenido de OpenAI. usando alguna forma de aprendizaje supervisado.
Mientras tanto, el aprendizaje no supervisado es una forma de aprendizaje automático en el que a los algoritmos de IA se les permite examinar grandes tramos de datos sin etiquetar, en un esfuerzo por para encontrar patrones para clasificar. Este tipo de inteligencia artificial se puede implementar para varios propósitos diferentes, como crear el tipo de sistemas de recomendación que compañías como Netflix y Spotify utilizan para sugerir nuevo contenido a los usuarios basado en sus elecciones de consumidores pasadas.
Finalmente, está el aprendizaje reforzado, o RL, que es una categoría de ML que incentiva un programa de IA para lograr una meta dentro de un programa específico. entorno. Q-learning es una subcategoría de aprendizaje reforzado. En RL, los investigadores tratan a los agentes de IA como a un perro al que intentando entrenar. Los programas son “recompensados» si toman ciertas acciones para afectar ciertos resultados y son penalizados si toman otras. En De esta manera, el programa está efectivamente “entrenado” para buscar el resultado más optimizado en una situación determinada. En Q-learning, el agente aparentemente funciona mediante prueba y error para encontrar la mejor manera de lograr una meta para la cual ha sido programada.
¿Qué tiene que ver todo esto con el supuesto avance “matemático” de OpenAI? Se podría especular que el programa que logró (supuestamente) hacer Las operaciones matemáticas simples pueden haber llegado a esa habilidad a través de alguna forma de RL relacionado con Q. Dicho todo esto, muchos expertos son algo Escéptico en cuanto a si los programas de IA realmente pueden resolver problemas de matemáticas todavía. Otros parecen pensar que, incluso si una IA pudiera lograr tales metas, es no necesariamente se traduciría en avances más amplios en AGI. La revisión de tecnología del MIT informó:
Los investigadores han intentado durante años conseguir modelos de IA para resolver problemas matemáticos. Los modelos de lenguaje como ChatGPT y GPT-4 pueden hacer algunas matemáticas. pero no muy bien ni confiablemente. Actualmente no tenemos los algoritmos o incluso las arquitecturas adecuadas para poder resolver problemas de matemáticas Usando IA de manera confiable, dice Wenda Li, profesora de IA en la Universidad de Edimburgo. Aprendizaje profundo y transformadores (una especie de red neural ), que es lo que usan los modelos de lenguaje, son excelentes para reconocer patrones, pero eso por sí solo probablemente no sea suficiente, agrega Li.
En resumen: realmente no sabemos mucho sobre Q, aunque, si hay que creer a los expertos, es posible que la exageración en torno a él sea sólo eso: exageración.
Pregunta del día: En serio, ¿qué diablos pasó con Sam Altman?

A pesar de que ha vuelto a OpenAI, todavía no sabemos qué carajo pasó con Sam Altman la semana pasada. una entrevista Lo que hizo con The Verge el miércoles, Altman no reveló prácticamente nada sobre lo que precipitó la dramática lucha por el poder en su empresa. A pesar de la continua insistencia del reportero del medio, Altman simplemente levantó las manos y dijo que no hablaría de eso por más tiempo. el futuro previsible. “Entiendo perfectamente por qué la gente quiere una respuesta ahora mismo. Pero también creo que es totalmente irrazonable esperarla”. dijo el CEO rebotado. En cambio, lo más que The Verge pudo sacar del ejecutivo de OpenAI es que la compañía está en En medio de la realización de una “revisión independiente” de lo sucedido, un proceso con el que, dijo, no quiere “interferir”. . Nuestro propia cobertura del programa de mierda de la semana pasada Lo interpretó según una narrativa que involucra un choque entre la ética de la junta y el tenaz impulso de Altman para comercializar la tecnología automatizada de OpenAI. Sin embargo, esto La narrativa es solo eso: una narrativa. No conocemos los detalles de lo que llevó al derrocamiento de Sam, aunque seguro que nos gustaría. a.
Otros titulares esta semana
Israel está utilizando IA para identificar a presuntos militantes palestinos. Si le preocupa que los gobiernos no pierdan tiempo en convertir la IA en un arma para su uso en la guerra moderna, escuche esto. Una historia de The Guardian muestra que Israel es actualmente usando un programa de IA llamado Habsora o “El Evangelio” para identificar objetivos militantes aparentes dentro de Palestina. El programa se utiliza para “producir objetivos a un ritmo rápido”, aparentemente se lee en una declaración publicada en el sitio web de las Fuerzas de Defensa de Israel, y Las fuentes le dijeron a The Guardian que el programa ha ayudado a las FDI a construir una base de datos de entre 30.000 y 40.000 presuntos militantes. El medio informa : “Sistemas como el Evangelio…[dijeron las fuentes] habían desempeñado un papel crítico en la construcción de listas de individuos autorizados a ser asesinados.»
Elon Musk intervino en cuestiones de derechos de autor de IA esta semana y, como de costumbre, sonó tonto. Múltiples demandas han argumentado que las empresas de tecnología están esencialmente robando y reempaquetando material protegido por copyright, permitiéndoles monetizar el trabajo de otras personas (normalmente autores y artistas visuales ) gratis. Elon Musk se metió en esta conversación polémica durante su entrevista rara de Dealbook Esta semana. Naturalmente, los pensamientos que compartió sonaban menos que inteligibles. Él dijo, y cito: “No lo sé, excepto decir que para cuando se resuelvan estas demandas tendremos al Dios Digital. “Puedes preguntarle a Dios Digital en ese momento. Um. Estas demandas no se decidirán en un plazo que sea relevante”. Hermosa, Elon. Tú. simplemente mantenga los ojos abiertos para detectar esa deidad digital. Mientras tanto, en el mundo real, los expertos legales y regulatorios tendrán que lidiar con las Interrupciones que esta tecnología está causando continuamente a personas mucho menos afortunadas que la C-suite de Silicon Valley.
Los robotaxis de crucero siguen luchando. Cruise, la compañía de robotaxis propiedad de General Motors, ha estado teniendo un año realmente difícil. Su CEO renunció la semana pasada , después un torbellino de controversia que involucra los diversos percances de la compañía en San Francisco. Esta semana, fue reportado que GM estaría reduciendo sus inversiones en la compañía. “Esperamos que el ritmo de expansión de Cruise sea más deliberado cuando las operaciones reanudarse, lo que resultará en un gasto sustancialmente menor en 2024 que en 2023», supuestamente dijo la directora ejecutiva de GM, Mary Barra, en una conferencia de inversores el miércoles.