Imagen: #2 n√ļmero del c√≥mic ‚ÄúY: El √ļltimo hombre‚ÄĚ (Vertigo)

La erupci√≥n de un supervolc√°n, una pandemia provocada por un virus de laboratorio o la rebeli√≥n de la inteligencia artificial son algunas de las cat√°strofes que podr√≠an borrar a la humanidad de la faz de la Tierra en los pr√≥ximos a√Īos, seg√ļn un grupo de investigadores de la Universidad de Oxford.

Advertisement

No hay que tomarse a broma el Apocalipsis. Si bien la mayoría de las generaciones no experimenta ninguna catástrofe, los expertos creen que existen peligros reales que podrían acabar con el 10% de la población humana (o más) a corto y largo plazo. El problema, advierte el informe Global Catastrophic Risks 2016, es que los gobiernos no se están preparando adecuadamente para algo así.

‚ÄúNo esperamos que estos riesgos se materialicen ma√Īana ni este mismo a√Īo, pero no debemos ignorarlos‚ÄĚ, explica Sebastian Farquhar, director del Global Priorities Project ‚ÄĒque particip√≥ en el estudio junto con la prestigiosa universidad brit√°nica. ‚ÄúLos eventos catastr√≥ficos improbables suceden, como la pandemia de gripe espa√Īola a principios del siglo pasado que pudo matar al 5% de la poblaci√≥n‚ÄĚ.

Estudio completo en Global Catastrophic Risks 2016 (PDF)

Advertisement

El informe distingue entre los riesgos a corto plazo (m√°s probables de aqu√≠ a cinco a√Īos) y los riesgos a largo plazo (menos probables de aqu√≠ a cinco a√Īos). Entre los mayores riesgos a corto plazo est√°n las dos grandes amenazas que nos acompa√Īaron durante el siglo XX: una pandemia natural y una guerra nuclear. Si se desatara una enfermedad tan viral como la gripe y tan letal como el √©bola, por ejemplo la cepa H5N1 de la gripe aviar, las consecuencias ser√≠an catastr√≥ficas.

El avance de la tecnolog√≠a puede crear nuevas oportunidades para frenar este tipo de pandemias, puede tambi√©n puede tener el efecto contrario: los expertos se√Īalan una pendemia de dise√Īo ‚ÄĒes decir, un virus de laboratorio‚ÄĒ como una de las amenazas a corto plazo que deber√≠amos tener muy en cuenta. Lo mismo con el persistente peligro de la guerra termonuclear: los √ļltimos movimientos de Corea del Norte son una de las razones por la que estamos ‚ÄĒseguimos‚ÄĒ a tres minutos de la destrucci√≥n seg√ļn el Reloj del Apocalipsis.

Advertisement

A largo plazo, el impacto de un asteroide o la erupci√≥n de un supervolc√°n como el de Yellowstone representan por s√≠ solos un riesgo mortal para la humanidad. Pero, seg√ļn los investigadores, deber√≠an preocuparnos m√°s otras tres graves posibilidades: un cambio clim√°tico catastr√≥fico (la Tierra se acerca a una temperatura media para la que no estamos preparados), que algo salga mal con nuestros avances en geoingenier√≠a y, lo que m√°s preocupa a personajes como Stephen Hawking, la rebeli√≥n de la inteligencia artificial (no, no es imposible).

‚ÄúAunque muchos de estos riesgos son abordados por grupos espec√≠ficos, necesitamos construir una comunidad alrededor del riesgo catastr√≥fico global. La cooperaci√≥n es la √ļnica manera en que los l√≠deres del mundo podr√°n gestionar los riesgos que amenazan a la humanidad‚ÄĚ, concluye Farquhar. [Global Catastrophic Risks 2016]


Síguenos también en Twitter, Facebook y Flipboard.