Parece que nos somos los Ășnicos en sentir un cierto reparo hacia la idea de construir una mĂĄquina inteligente capaz de pensar por si misma. El laureado fĂ­sico Stephen Hawking no ha dudado en calificar a la Inteligencia Artificial, o I.A. como el peor error que podrĂ­a cometer la humanidad, y probablemente el Ășltimo.

Hawking no se muestra abiertamente contrario a las investigaciones en este campo, pero cree que la comunidad científica no se estå preocupando lo suficiente por mantener bajo control un eventual sistema de inteligencia artificial el día que se descubra. El físico ha publicado un artículo conjunto con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek. Estas son sus palabras. Podéis leer artículo completo (en inglés) aquí. [vía The Independent]

Si miramos hacia el futuro, no hay límites a lo podemos lograr en este campo [I.A.]. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cålculos mås complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza.

No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.

Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lĂłgico pensar que los cientĂ­ficos estĂĄn tomando todas las precauciones para asegurar el mejor resultado posible, Âżverdad? Pues no es asĂ­. ÂżSi una civilizaciĂłn del espacio exterior nos enviara un mensaje diciendo: "Llegamos en unos años", nuestra respuesta serĂ­a: "ÂĄOk! Avisadnos cuando estĂ©is llegando para dejar las luces encendidas"? Probablemente no, pero eso es mĂĄs o menos lo que estĂĄ ocurriendo con la inteligencia artificial. Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se estĂĄn investigando seriamente sus implicaciones Las Ășnicas organizaciones que estĂĄn estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de InvestigaciĂłn de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberĂ­amos preguntarnos desde hoy mismo quĂ© puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.

***

Psst! también puedes seguirnos en Twitter, Facebook o Google+ :)