El fin del mundo ha sido siempre patrimonio de la religión y, ocasionalmente, de Hollywood. Sin embargo, la ciencia va acumulando datos y empieza a tomarse en serio los riesgos de que un fenómeno natural o provocado por los humanos pueda acabar con la civilización. Un reciente informe detalla los 12 grandes riesgos que podrían provocar el Apocalipsis anunciado en los textos sagrados o en el cine.
“Los guiones de Hollywood exigen heroicos esfuerzos para salvarnos y los grupos religiosos milenaristas le buscan un significado trascendente a estos desastres”, dice el investigador del Instituto para el Futuro de la Humanidad de la Universidad de Oxford (IFH) y coautor del informe, Stuart Armstrong.
Sin embargo, para la ciencia, “estos riesgos son principalmente cuestiones que pueden reducirse a conceptos nada glamurosos, como la eficiencia energética, y la mayoría no tienen ningún significado o racionalidad detrás”, añade.
El IFH y la Fundación Retos Globales de Suecia han recopilado todo lo que la ciencia sabe sobre estos posibles cataclismos con tan poco encanto. Una treintena de expertos repasaron libros y artículos científicos hasta obtener un listado con los eventos que podrían acabar con la civilización humana, incluso con la propia existencia de los humanos. El informe 12 riesgos para la civilización humana hace hasta una estimación de la probabilidad de que alguno suceda en los próximos 100 años.
Unos peligros, como el cambio climático o la guerra nuclear, llevan tiempo entre nosotros. Otros son tecnologías emergentes que podrían tener un lado oscuro, como la inteligencia artificial o la biología sintética.
Y algunos siempre han estado ahí y provocaron grandes extinciones, como el impacto de un gran asteroide o la erupción de un supervolcán. Además, entre varios de ellos podrían existir conexiones que agravaran el resultado final, haciendo imposible la vida sobre el planeta, al menos tal y como se conoce.
Lo que enseguida llama la atención en la lista es que la mayoría de los enemigos de la civilización humana han nacido dentro de ella. Solo en dos eventos, el impacto de un gran asteroide o la erupción de un supervolcán, los humanos tienen poco que ver.
Incluso en el caso de una pandemia global, hay un factor humano llamado globalización. En el pasado, la peste negra o la gripe española no fueron apocalípticas porque el mundo no estaba tan conectado como hoy.
La lista de los 12 jinetes no ha sido elaborada siguiendo un orden jerárquico, según su mayor o menor probabilidad o intensidad. La encabeza el cambio climático al que los investigadores le añaden el adjetivo de extremo. Es el prototipo de riesgo antropogénico o endógeno.
El progreso no ha sido mayor en la historia como desde la Revolución Industrial y las revoluciones científicas asociadas a ella. Creación de riqueza, elevación del nivel de vida, mejora de las condiciones sanitarias…
Pero cuando la máquina de vapor de James Watt echó a rodar, en la atmósfera había unas 300 partes por millón de dióxido de carbono, el principal gas que está calentando el planeta. En el verano de 2013 se superó la cifra de 400, algo así no había pasado en los últimos 800 mil años. Los distintos escenarios dibujados por los expertos climáticos mantienen que una subida de las temperaturas de no más de 2º para final de siglo, permitiría a los humanos vivir casi como si nada hubiera cambiado. Pero, como recuerda este informe, hay escenarios más extremos, donde la temperatura podría subir a 6º.
Una temperatura así provocaría una reacción en cadena: los países tropicales serían afectados, la sequía y la hambruna generarían caos y migraciones masivas a regiones templadas que también colapsarían… “Es improbable pero no imposible”, dicen los autores del informe.
El estudio trabaja con situaciones que estadísticamente tienen poca posibilidad, pero la tienen.
“La probabilidad de que algún asteroide impacte sobre la Tierra es una certeza, la probabilidad de uno peligroso es mucho, pero mucho más baja”, recuerda Armstrong. Aquí no hay azar, hay certidumbre. ¿Qué acabó con los dinosaurios si no un meteorito? La colisión de un gran asteroide de cinco kilómetros o más de diámetro sucede cada 20 millones de años, millón arriba o abajo. Con esas dimensiones, el impacto podría liberar la energía de 100 mil bombas atómicas. Solo el choque arrasaría un área equivalente a los Países Bajos.
Pero lo peor vendría después. A diferencia de las historietas contadas en películas como Deep Impact de 1998, el problema no es el impacto sino sus consecuencias. Ingentes cantidades de polvo se elevarían hasta las capas altas de la atmósfera, impidiendo el paso de los rayos del Sol. Sería un invierno de decenios que afectaría a la biósfera.
En 2013, la NASA estimó que las probabilidades de que el Asteroide 2013 TV135, de unos 400 metros de envergadura, choque contra la Tierra en 2032 es de una entre 63 mil. Una probabilidad similar a la de morir por la caída de un rayo y a nadie se le ocurre guarecerse bajo un árbol cuando truena.
El lado oscuro de las
tecnologías emergentes
Sin embargo, la ciencia no se puede quedar ahí. En los últimos años, además del IFH y la Fundación Retos Globales, se han puesto en marcha otras fundaciones e institutos dedicados a vigilar qué puede acabar con la civilización humana y cómo mitigar esos peligros.
Es el caso del Fondo Skoll para las Amenazas Globales, el Centro para el Estudio de los Riesgos Existenciales de la Universidad de Cambridge o el Instituto de Catástrófes Globales (GCRI), de Estados Unidos. Ninguno de ellos tiene más de cuatro años.
En diciembre, Stephen Hawking declaraba a la BBC que “el desarrollo de la inteligencia artificial plena podría significar el fin de la raza humana”. Para el genial físico, “los seres humanos, limitados por la lenta evolución biológica, no podrían competir, y serían reemplazados”.
El momento en que la inteligencia artificial supere a la humana es lo que los robóticos llaman singularidad y algunos científicos, como el filorrobótico y asesor de Google, Ray Kurzweil, incluso le han puesto fecha: en algún momento de la década de los 30’s, las máquinas superarán a los humanos.
Hace unas semanas, una carta firmada por científicos y tecnólogos apostaba por un desarrollo responsable de la inteligencia artificial, donde, entre otras cosas, el avance en la ética de las máquinas vaya parejo con el tecnológico para que nunca sean una amenaza para sus creadores.
Pero, aún no hay iniciativas similares para otros dos campos emergentes como la biología sintética y su promesa de crear organismos artificiales o la nanotecnología sobre los que el informe advierte. Y en los tres casos, no habrá que esperar miles de años para ver su lado oscuro.
El informe del Instituto para el Futuro de la Humanidad y la Fundación Retos Globales no lo explicita pero hay un decimotercer peligro que sobrevuela sobre los otros doce y es el de la ignorancia. Ya sea por la incapacidad para valorar económicamente un evento tan catastrófico, por su baja probabilidad a corto plazo o la psicología humana, tanto los políticos como buena parte de la comunidad científica no se toman muy en serio los riesgos. Y esa desidia es lo que, para los autores, explica buena parte de la imagen popular y acientífica del Apocalipsis.
Los 12 jinetes del Apocalipsis
El informe de la Fundación Retos Globales se centra en 12 grandes amenazas que podrían acabar con la civilización
humana.
Riesgos actuales
1. Cambio climático extremo
2. Guerra nuclear
3. Catástrofes ecológicas
4. Pandemias mundiales
5. Colapso del sistema mundial
Riesgos exógenos
6. Impactos de grandes
asteroides
7. Supervolcanes
Riesgos emergentes
8. Biología sintética
9.Nanotecnología
10. Inteligencia artificial
11. Riesgos inciertos
Riesgo de las políticas mundiales
12. Mala gobernanza mundial
en el futuro