Saltar al contenido
Tecnología

Ahora Anthropic suma más religiones a su proyecto de lograr que la moral de Claude sea perfecta

Anthropic (y OpenAI) se reunieron con representantes de diversas religiones. ¿Servirá de algo?
Por Mike Pearl Traducido por

Tiempo de lectura 3 minutos

Comentarios (0)

La semana pasada representantes de Anthropic y OpenAI asistieron a un evento en Nueva York, conocido como mesa redonda de “IA y Fe”.  Estuvieron presentes la Junta de Rabinos de Nueva York, la Sociedad del Templo Hindú de Norteamérica, la Iglesia de Jesucristo de los Últimos Días, la Coalición Sikh de EE.UU. y la Arquidiócesis Ortodoxa Griega de EE.UU. 

Hace un mes escribí sobre las reuniones y cenas que organizó Anthropic con unos 15 líderes cristianos. Lo que Anthropic buscaba eran consejos y guía sobre el supuesto “desarrollo espiritual” de su modelo de IA, Claude. En ese momento Anthropic declaró que estaba organizando reuniones futuras con pensadores morales que representaban a otros grupos.

El artículo de Associated Press no aclara si la reunión de IA y Fe y las conversaciones con líderes religiosos junto a las reuniones con grupos cristianos forman parte de un programa único de Anthropic, y si el personal que participó de esta última reunión también formó parte de las anteriores reuniones. Gizmodo se puso en contacto el sábado con Anthropic para que comentaran, pero hasta el momento no recibimos una respuesta de parte de la compañía.

También, Associated Press dice que Open AI y Anthropic iniciaron los contactos, pero al mismo tiempo afirman que los organizadores son una ONG DE Suiza, la Alianza Interreligiosa por las Comunidades Seguras, con planes de llevar a cabo eventos similares en el futuro en China, Kenia y Emiratos Árabes Unidos. La baronesa Joanna Shields, miembro del parlamento británico, figura como “asociada clave”.

En la nota publicada no aparecen instrucciones religiosas presentadas por estos líderes espirituales. Sin embargo, Anthropic dice que la “constitución de Claude” incluye una cantidad de lineamientos filosóficos que Anthropic está intentando incluir en el entrenamiento de la máquina para que logre tomar decisiones como lo haría una persona con valores perfectos cada vez que no hay una regla escrita para una determinada situación, en caso de que la decisión incorrecta pudiera ser fatal o trágica. Anthropic afirma que sus esfuerzos buscan “darle a Claude valores éticos”, y porque su preocupación es lograrlo sin que falle.

A tal fin, el artículo de Associated Press incluye un comentario bastante negativo de parte de Rumman Chowdhury, CEO de la ONG Humane Intelligence: “Creo que es muy ingenuo que Silicon Valley haya estado relacionando la IA generativa con la posibilidad de alcanzar principios universales de ética. Se han dado cuenta de que eso no es así, no es real. Y por eso ahora piensan tal vez que la religión es una forma de lidiar con las ambigüedades que presentan las situaciones que éticamente están en la zona gris”.

Es decir que buscan la ética en las religiones, aunque resulta difícil imaginar que Anthropic salga convertido como para insertar doctrinas religiosas específicas en Claude. Lo que intentan es recoger verdades éticas superiores, demostrando al mundo que no dejaron piedra sin levantar al buscarlas.

Todo dependerá, finalmente, de si piensas que puedes delegar la toma de decisiones o los consejos en una máquina. De si crees que podrá sintetizar los ideales de la moral. Lo más probable es que no cause daño alguno, pero la realidad es que sólo Dios sabe qué pasará.

Compartir esta historia

Artículos relacionados