Parece que nos somos los √ļnicos en sentir un cierto reparo hacia la idea de construir una m√°quina inteligente capaz de pensar por si misma. El laureado f√≠sico Stephen Hawking no ha dudado en calificar a la Inteligencia Artificial, o I.A. como el peor error que podr√≠a cometer la humanidad, y probablemente el √ļltimo.

Hawking no se muestra abiertamente contrario a las investigaciones en este campo, pero cree que la comunidad científica no se está preocupando lo suficiente por mantener bajo control un eventual sistema de inteligencia artificial el día que se descubra. El físico ha publicado un artículo conjunto con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek. Estas son sus palabras. Podéis leer artículo completo (en inglés) aquí. [vía The Independent]

Si miramos hacia el futuro, no hay l√≠mites a lo podemos lograr en este campo [I.A.]. No hay ninguna ley f√≠sica que impida que las part√≠culas en un sistema de inteligencia artificial se re-ordenen a s√≠ mismas para realizar c√°lculos m√°s complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apunt√≥ en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio dise√Īo por su cuenta, dando lugar a lo que Vernor Vinge denomin√≥ una singularidad, o lo que Johny Depp llama Trascendencia en la reciente pel√≠cula que protagoniza.

No es dif√≠cil imaginar una tecnolog√≠a semejante dominando completamente los mercados financieros, sobrepasando los dise√Īos de sus propios creadores, manipulando l√≠deres, o encontrando maneras de construir armas que no ser√≠amos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuesti√≥n a largo plazo es si un sistema as√≠ puede ser controlado por seres humanos.

Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es l√≥gico pensar que los cient√≠ficos est√°n tomando todas las precauciones para asegurar el mejor resultado posible, ¬Ņverdad? Pues no es as√≠. ¬ŅSi una civilizaci√≥n del espacio exterior nos enviara un mensaje diciendo: "Llegamos en unos a√Īos", nuestra respuesta ser√≠a: "¬°Ok! Avisadnos cuando est√©is llegando para dejar las luces encendidas"? Probablemente no, pero eso es m√°s o menos lo que est√° ocurriendo con la inteligencia artificial. Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se est√°n investigando seriamente sus implicaciones Las √ļnicas organizaciones que est√°n estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigaci√≥n de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deber√≠amos preguntarnos desde hoy mismo qu√© puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.

Advertisement

***

Psst! también puedes seguirnos en Twitter, Facebook o Google+ :)