Algunas de las mayores empresas que impulsan la IA, incluidos los gigantes de Silicon Valley, Google y Microsoft, junto con la nueva sangre OpenAI y Anthropic, son uniéndose para impulsar su propio organismo industrial como el principal bastión de seguridad de la IA. La primera ayuda de estas empresas multimillonarias para el incipiente foro de IA es un nuevo director y unos míseros 10 millones de dólares para administrar de alguna manera el mundo entero sobre la IA ética.
Estas empresas de IA primero reveló el Foro del modelo de frontera en julio, con el propósito declarado de promover la investigación de seguridad de la IA y promover el desarrollo responsable de la IA. El objetivo es promover lo grandiosa pero limitada que es actualmente la IA.
las empresas compartido El miércoles encontraron una nueva pista para encabezar el grupo de la industria. Chris Meserole, quien recientemente trabajó como director de Brookings. El grupo de investigación de IA de la institución asumirá el cargo de director ejecutivo del foro Frontier. El experto homónimo en seguridad de la IA dijo en el comunicado “para realizar su potencial,necesitamos comprender mejor cómo desarrollarlos y evaluarlos de manera segura”.
Junto al nuevo liderazgo está la primera ronda de financiación de la organización, por un total de poco más de 10 millones de dólares. No proviene solo de las empresas, sino de algunas organizaciones filantrópicas que también promueven la IA. Las empresas afirman que el objetivo principal del fondo es encontrar métodos novedosos para el equipo rojo ( También conocido como examinar y probar los últimos y más grandes modelos de IA. El fondo no tendrá su propio espacio de laboratorio, per se, pero hará uso de los equipos existentes de las empresas socios.
Para poner esos $10 millones en perspectiva, Microsoft ya ha invertido miles de millones de dólares en OpenAI para ampliar su acceso a más modelos de lenguaje. Amazon invirtió recientemente 4.000 millones de dólares en Anthropic para desarrollar más modelos de IA para los servicios de Amazon.
Todavía es temprano, pero el fondo ya se parece mucho a una organización promedio de promoción de la industria. El fondo todavía tiene que crear un consejo asesor que tendrá “una gama de perspectivas y experiencia”, aunque no está claro cuántos escépticos totales de la IA involucrados que pueden ofrecer un contrapunto a la actitud cautelosa pero entusiasta del fondo hacia el nuevo desarrollo de la IA.
Tanto Google como Microsoft han estado tratando de enfatizar cómo ya están trabajando para minimizar los riesgos de la IA, mientras impulsan la IA generativa lo más lejos posible. ya que puede implementarlo en prácticamente todos sus nuevos productos de usuario final. Las empresas promocionaron que firmaron con un El compromiso de la Casa Blanca de desarrollar éticamente la IA. Los dos gigantes de la tecnología junto a los queridos VC OpenAI y Anthropic afirmaron que administrarían una “IA confiable «, pero es difícil asumir el compromiso en serio cuando Los principales contratistas militares como Palantir están entre sus filas..
El fondo tendrá mucho trabajo por delante. La Fundación Internacional Watch (IWF), con sede en el Reino Unido, presentó una informe El miércoles señaló que descubrió más de 20.000 imágenes generadas por IA publicadas en un foro de la web oscura para la proliferación de material de abuso sexual infantil. De ellas, Los analistas descubrieron que más de la mitad eran expresamente ilegales según las leyes del Reino Unido. La IWF dijo que los usuarios de estos foros estaban compartiendo consejos activamente y trucos para crear estas imágenes usando generadores de arte IA.
“Estamos extremadamente preocupados de que esto reduzca la barrera de entrada para los delincuentes y tenga el potencial de retardar la respuesta de la comunidad internacional. comunidad a este crimen abominable”, escribió en el informe la directora ejecutiva de la IWF, Susie Hargreaves. El grupo de vigilancia solicitó que el gobierno les permitiera examinar los datos de formación de IA notoriamente opacos de diferentes empresas
Ese grupo de vigilancia es uno de los muchos preocupados por este tipo de imágenes de IA. El estado de Luisiana ya aprobó una ley que prohíbe los deepfakes sexuales de menores En julio. El mes pasado, los tribunales de Corea del Sur sentenciado un hombre a dos años y medio de prisión por crear cientos de imágenes AI CSAM.
No es que estas empresas que desarrollan IA estén en contra de la regulación. A primera vista, la los altos ejecutivos están totalmente a favor, aunque sólo del tipo que no les impedirá desarrollar modelos de IA más grandes. Aunque la cooperación interindustrial es algo bueno para construir una IA más ética, el fondo es simplemente una forma para que estas empresas sigue haciendo lo que ya está haciendo.