La organización conocida como Future of Life Institute acaba de publicar una carta advirtiendo de los riesgos de la Inteligencia Artificial. No es una carta cualquiera. La firman centenares de científicos entre los que hay algunas figuras tan preeminentes como Stephen Hawking o Elon Musk.

Advertisement

No solo están estos dos investigadores. La carta, cuyo texto completo podéis leer en este enlace, está avalada por centenares de científicos de las universidades de Cambridge, Oxford, Harvard, Stanford y el MIT. También se han unido a ella algunos de los investigadores más destacados que trabajan en IA en empresas como Google o DeepMind.

La carta tampoco es una comunicación cualquiera. Los científicos que la firman no pretenden ponerse apocalípticos ni advertir de que la Inteligencia Artificial vaya a suponer el fin de la humanidad. El tono de la carta, por el contrario, es positivo.

De lo que tratan es de advertir que la IA es un campo de investigación en el que es especialmente importante tener cuidado con cómo se crea esa inteligencia y, sobre todo, con qué fin. El grupo de firmantes destaca los increíbles beneficios que puede tener para la humanidad el desarrollar sistemas capaces de razonar y procesar datos de una manera inteligente. Para los firmantes, estos sistemas pueden ser clave a la hora de erradicar las enfermedades o paliar la pobreza. Sin embargo, también advierte del riesgo de crear sistemas que no sean neutrales, o que no estén bajo control directo y completo de los seres humanos:

Hasta ahora, los proyectos relacionados con la IA han estado enfocados en técnicas que son neutrales respecto a su propósito. Recomendamos potenciar un desarrollo que asegure que los futuros sistemas de IA sean robustos, pero también beneficiosos. Nuestros sistemas de Inteligencia Artificial deben hacer siempre lo que nosotros queramos que hagan.

Advertisement

El grupo de cient√≠ficos no solo piensa en un hipot√©tico Skynet como el de las pel√≠culas de Terminator. La Inteligencia Artificial se est√° utilizando en campos mucho m√°s mundanos que el militar y en los que una mala decisi√≥n de la m√°quina podr√≠a producir da√Īos. Un buen ejemplo son los coches aut√≥nomos o el instrumental aut√≥nomo m√©dico. En estos campos, los firmantes de la carta abogan por la creaci√≥n de una √©tica de las m√°quinas. De hecho piden a los agentes implicados en este tipo de proyectos que se unan para valorar si es necesaria la adopci√≥n de unos est√°ndares universales en este sentido.

Para los investigadores que trabajan directamente en IA, la carta sugiere no solo que se centren en si el sistema est√° bien construido, sino tambi√©n en si se ha dise√Īado de forma que no pueda salirse de su prop√≥sito original. Tambi√©n apuntan a la seguridad de los sistemas de este tipo para que no puedan ser manipulados por otras personas, y para que siempre est√© bajo el control de las personas responsables de su supervisi√≥n. [Future of Life Institute v√≠a The Independent]

***

Psst! también puedes seguirnos en Twitter, Facebook oGoogle+ :)