Elon Musk, uno de los principales inversores de OpenAI
Foto: Getty

OpenAI, un grupo de investigaci√≥n de inteligencia artificial sin √°nimo de lucro, quer√≠a entrenar un nuevo software generador de texto para predecir la siguiente palabra de una frase, pero sus expectativas se quedaron cortas y el resultado acab√≥ imitando tan bien la escritura humana que los investigadores decidieron parar la investigaci√≥n mientras exploran el da√Īo que podr√≠a hacer.

Elon Musk ha dejado claro que cree que la inteligencia artificial ‚Äúsupone un riesgo fundamental para la existencia de la civilizaci√≥n humana‚ÄĚ. Musk es uno de los principales inversores de OpenAI y, aunque ha asumido un papel secundario en la organizaci√≥n, sus investigadores parecen compartir sus preocupaciones a la hora de abrir la caja de Pandora. Esta semana, OpenAI ha publicado un informe sobre su √ļltimo trabajo con el que se desv√≠a de su pr√°ctica est√°ndar de publicar la investigaci√≥n completa al p√ļblico. En lugar de lanzar el modelo completamente entrenado, han lanzado un modelo m√°s peque√Īo por temor a que pueda ser abusado por usuarios maliciosos.

Los investigadores utilizaron 40 GB de datos extra√≠dos de 8 millones de p√°ginas web para entrenar el software GPT-2. Eso es diez veces la cantidad de datos que utilizaron para la primera iteraci√≥n de GPT. El conjunto de datos se recopil√≥ seleccionando en Reddit los enlaces a art√≠culos que ten√≠an m√°s de tres votos positivos. Cuando se complet√≥ el proceso de entrenamiento, los investigadores descubrieron que el software pod√≠a alimentarse con una peque√Īa cantidad de texto y continuar escribiendo convincentemente un texto largo en funci√≥n de esta. Tiene problemas con ‚Äútipos de contenido altamente t√©cnicos o esot√©ricos‚ÄĚ, pero cuando se trata de cosas m√°s conversacionales, genera ‚Äúmuestras razonables‚ÄĚ el 50% de las veces.

En un ejemplo, el software fue alimentado con este p√°rrafo:

En un hallazgo impactante, un cient√≠fico descubri√≥ una manada de unicornios que viven en un valle remoto, previamente inexplorado, en las monta√Īas de los Andes. A√ļn m√°s sorprendente para los investigadores fue el hecho de que los unicornios hablaran un ingl√©s perfecto.

Advertisement

A partir de esas dos frases, el modelo fue capaz de continuar escribiendo una extravagante noticia de nueve párrafos de una manera que creíblemente podría haber sido escrita por un ser humano. Aquí están los siguientes párrafos que fueron producidos por la máquina:

En homenaje a su distintivo cuerno, el científico bautizó a la población como el Unicornio de Ovidio. Estos unicornios de cuatro cuernos y de color blanco plateado eran previamente desconocidos para la ciencia.

Ahora, despu√©s de casi dos siglos, el misterio de lo que provoc√≥ este extra√Īo fen√≥meno se resuelve finalmente.

El Dr. Jorge P√©rez, un bi√≥logo evolutivo de la Universidad de La Paz, y varios compa√Īeros estaban explorando las monta√Īas de los Andes cuando encontraron un peque√Īo valle, sin otros animales o humanos. P√©rez not√≥ que el valle ten√≠a lo que parec√≠a ser una fuente natural rodeada por dos picos de roca y nieve plateada.

Advertisement

GPT-2 es muy bueno adapt√°ndose al estilo y al contenido de las indicaciones que se le dan. The Guardian tuvo acceso al software y prob√≥ con la primera l√≠nea de 1984 de George Orwell: ‚ÄúEra un d√≠a luminoso y fr√≠o de abril y los relojes daban las trece‚ÄĚ. El programa recogi√≥ el tono del extracto y procedi√≥ con un poco de ciencia ficci√≥n dist√≥pica propia:

Estaba en mi coche camino a un nuevo trabajo en Seattle. Le puse gasolina, met√≠ la llave y luego lo dej√© marchar. Me imagin√© c√≥mo ser√≠a el d√≠a. Cien a√Īos a partir de ahora. En 2045, fui profesor en alguna escuela en una zona pobre de la China rural. Comenc√© con la historia china y la historia de la ciencia.

Advertisement

Los investigadores de OpenAI descubrieron que GPT-2 desempe√Īaba muy bien su trabajo cuando se le asignaron tareas para las que no se hab√≠a sido dise√Īado necesariamente, como la traducci√≥n y el resumen. En su informe, los investigadores escribieron que bastaba con dar pie al modelo entrenado de la forma correcta para que realizara estas tareas a un nivel comparable a otros modelos especializados. Despu√©s de analizar una historia corta sobre una carrera ol√≠mpica, el software pudo responder correctamente preguntas b√°sicas como ‚Äú¬ŅCu√°l fue la duraci√≥n de la carrera?‚ÄĚ y ‚Äú¬ŅD√≥nde comenz√≥ la carrera?‚ÄĚ.

Estos excelentes resultados han asustado a los investigadores. Una de las preocupaciones que tienen es que la tecnología se use para turbopotenciar la creación de noticias falsas. The Guardian publicó una noticia falsa escrita por el software en su reportaje. El artículo es legible y contiene citas falsas que encajan en el tema y son realistas. La gramática es mejor que en muchas fábricas de contenido falsificado. Y de acuerdo con Alex Hern, de The Guardian, el robot solo tardó 15 segundos en escribir el artículo.

Otras preocupaciones que los investigadores mencionaron como potencialmente abusivas son la automatización de correos electrónicos de suplantación de identidad (phishing), hacerse pasar por otros en Internet y el acoso autogenerado. Pero también creen que hay muchas aplicaciones beneficiosas por descubrir. Por ejemplo, podría ser una herramienta poderosa para desarrollar mejores programas de reconocimiento de voz o asistentes de diálogo.

Advertisement

OpenAI planea involucrar a la comunidad de la inteligencia artificial en un debate sobre su estrategia de lanzamiento y espera explorar posibles directrices √©ticas para dirigir este tipo de investigaciones en el futuro. Dijeron que volver√°n con m√°s cosas sobre las que discutir en p√ļblico en seis meses.

Actualizaci√≥n: Tras la publicaci√≥n de este art√≠culo, Elon Musk ha aclarado en Twitter que dej√≥ de estar involucrado en OpenAI hace mas de un a√Īo, entre otras cosas para dedicarse a Tesla y a SpaceX y porque ‚Äúno estaba de acuerdo con algunas cosas que el equipo quer√≠a hacer‚ÄĚ.

Advertisement

Advertisement

[OpenAI via The Guardian]