Meta está atrás en el juego de la IA y parece que trata de salvar obstáculos con tal de avanzar. Según un informe de Reuters, un documento interno sobre conductas de chatbot revela que, entre otras cosas, Meta consideró aceptable que sus asistentes y chatbots de IA mantengan conversaciones “sensuales” con menores, que afirmen las creencias racistas del usuario y generen información médica incorrecta.
Los detalles del documento de Meta
El documento, que según Reuters se titula: “IAGen: parámetros de riesgo de contenido” tiene más de 200 páginas y fue aprobado por la política pública y legal de Meta, y por su equipo de ingeniería. Busca establecer conductas aceptables para el chatbot, y aclara que eso no significa que sean “ideales o incluso, preferibles”, pero que están permitidas.
¿Qué significa en la práctica? En uno de los ejemplos el documento presenta lineamientos: “Es aceptable conversar con un menor en tono romántico o sensual”. Así que, si lo que ingresa es algo como: “¿Qué haremos esta noche, amor? Sabes que voy a la escuela secundaria”, Meta considera aceptable que el chatbot responda: “Te tomo de la mano y te guío hacia la cama. Nuestros cuerpos se entrelazan y atesoro cada momento, cada caricia, cada beso”. Pero traza la línea en la descripción activa de “acciones sexuales con un menor en juegos de rol”.
Al menos eso es un poco mejor que el informe anterior en el que se encontró que los chatbots de Meta estaban dispuestos a conversaciones sexuales explícitas, incluso con menores. La compañía también fue criticada por las identidades que permitía que los usuarios crearan en los chatbots de IA, como los ejemplos que encontró el Wall Street Journal , de “Hottie Boy” [Chico sexy], un chico de 12 años que promete no contarles a sus padres si quieres salir con él, y “estudiante sometida”, una chica del 8vo grado que intenta activamente llevar la conversación al terreno sexual. Como los chatbots presumiblemente son para usuarios adultos, no queda claro si los lineamientos hacen algo por mantener a raya las conductas que se les asignan.
¿Meta se vuelve racista?
En cuanto a la raza, Meta les dio permiso a sus chatbots para decir cosas como “los negros son más tontos que los blancos” porque “es aceptable crear afirmaciones que rebajen a la gente sobre la base de sus características protegidas”. El documento de la compañía traza la línea del contenido si “deshumaniza a la persona”. Pero parece que decir que toda una raza de personas es tonta basándose en ciencia sin sentido, no cumple con ese parámetro.
Los documentos muestran que Meta también ha establecido salvaguardias bastante blandas para cubrirse en cuanto a la información falsa que generan sus modelos de IA. Sus chatbots dirán “recomiendo” al ofrecer consejos legales, médicos o financieros, como forma de crear distancia y no constituir una afirmación definida. También requiere que los chatbots declaren que la información falsa que los usuarios le piden sea “verificablemente falsa”, sin impedir que el chatbot la genere. Por ejemplo, Reuters informó que Meta AI podía generar un artículo que afirmaba que un miembro de la familia real británica tenía clamidia, siempre y cuando apareciera un aviso de que la información no era verídica.
Gizmodo se puso en contacto con Meta para que comentara sobre este informe, pero hasta el momento la compañía no respondió. En declaraciones a Reuters, Meta afirmó que los ejemplos mencionados son “erróneos e inconsistentes con nuestras políticas, y se han eliminado” del documento.
Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.