Entradas Recientes

Siguenos por Email

Recientes

Misterio

Nuevo estudio advierte sobre el Apocalipsis ocurriendo dentro de cinco años

No hay comentarios
Nuevo estudio advierte sobre el Apocalipsis ocurriendo dentro de cinco años

Un equipo de investigadores de la Universidad de Oxford, la Fundación Global Challenges y el Proyecto Global Priorities emitió recientemente un informe titulado "Riesgos Catastróficos Globales". En él, discuten y emiten clasificaciones de eventos que pueden eliminar al diez por ciento o más de la población humana dentro de los próximos cinco años. En realidad, el informe sugiere que una persona puede tener cinco veces más probabilidades de morir en un evento de extinción que en un accidente de auto.

Sebastian Farquhar, director del Global Priorities Project, dijo a la Press Association,

Hay algunas cosas que están en el horizonte, cosas que probablemente no ocurrirán en un año, pero podrían suceder, lo que podría remodelar completamente nuestro mundo y hacerlo de una manera realmente devastadora y desastrosa. La historia nos enseña que muchas de estas cosas son más probables de lo que pensamos intuitivamente. Muchos de estos riesgos están cambiando y creciendo a medida que las tecnologías cambian y crecen y remodelan nuestro mundo. Pero también hay cosas que podemos hacer con respecto a los riesgos.

Isaac Newton predijo que el mundo terminaría en torno al 2060

Los eventos más probables en un futuro próximo incluyen super volcanes y golpes de asteroides. Luego están los desastres relacionados con el cambio climático, las pandemias naturales (como la gripe aviar), la guerra biológica y la guerra nuclear. Otros riesgos incluyen las pandemias de virus causados ​​por el hombre, la geoingeniería (como la adición de hierro a los océanos del mundo para absorber el carbono atmosférico) y los problemas con la inteligencia artificial (IA).


Los llamados "científicos" pueden estar a un paso de exterminar a la raza humana

El Sr. Farquhar dice,

Lo que queremos alertar sobre el futuro, aunque es que se hace más fácil y más barato hacer un montón de cosas de una manera casi estándar, o ordenar partes, por ejemplo un virus de la viruela, fuera de Internet eso puede comenzar a cambiar. Hemos visto que en el campo de la biología sintética y la manipulación genética de pequeños organismos o cosas como los virus que el costo ha bajado increíblemente en la última década. Eso aún es demasiado caro para preocuparse por los grupos deshonestos que tratan de usar la tecnología, pero eso podría no ser cierto.

Una gran amenaza en el futuro es algo que la mayoría de la gente no piensa. El surgimiento de la inteligencia artificial representa una amenaza importante.

El Sr. Farquhar explica,

Realmente no hay ninguna razón en particular para pensar que los seres humanos son el pináculo de la creación y lo mejor que es posible tener en el mundo. Parece concebible que algunos sistemas de IA puedan en algún momento en el futuro ser capaz de competir de forma sistemática con los seres humanos en un montón de diferentes dominios y si usted tiene una forma suficientemente potente de ese tipo de sistema artificialmente inteligente, entonces podría ser el caso que si sus objetivos no coinciden con los valores de la humanidad, entonces podría haber algún tipo de consecuencias adversas. Así que esto no depende de que se vuelva consciente, no depende de que odie a la humanidad, es sólo cuestión de ser poderoso, sus objetivos son opacos o difíciles de determinar para sus creadores, y eso siendo de alguna manera indiferente en al menos en algunas de las cosas que encontramos valiosas.

Esto puede parecer una ciencia ficción lejana, pero es una preocupación discutida entre algunas de las mentes más brillantes del mundo. En 2014, Stephen Hawking, Elon Musk, Steve Wozniak y cientos de otros emitieron una carta desvelada en la Conferencia Internacional Conjunta advirtiendo que la inteligencia artificial puede ser potencialmente más peligrosa que las armas nucleares.

Bill Gates, en 2015, dijo:

Estoy en el campo que está preocupado por la super inteligencia. Primero, las máquinas harán muchos trabajos para nosotros y no serán super inteligentes. Eso debería ser positivo si lo manejamos bien. Unas pocas décadas después, sin embargo, la inteligencia es lo suficientemente fuerte como para ser una preocupación. Estoy de acuerdo con Elon Musk y algunos otros en esto y no entiendo por qué algunas personas no están preocupadas.


El informe no fue publicado para asustar a la gente, sino para pedir cooperación en la comunidad internacional para implementar la planificación de pandemias, preparar sistemas de salud, investigar los riesgos de la biotecnología y la inteligencia artificial y continuar disminuyendo el número de armas nucleares.

“Alternativa 3”: el plan de supervivencia de la elite Illuminati ante la inminente Nueva Era de Hielo

El Sr. Farquhar resume,

Lo que es realmente importante recordar es que muchos de estos riesgos no se detienen en las fronteras y esperan pacientemente que sus pasaportes sean controlados, son realmente de naturaleza global. Este no es el tipo de cosas que un país puede decir, "Oh, bueno, estamos preparados y el resto del mundo puede defenderse por sí mismo". Esa es una de las cosas que vimos con la crisis del Ebola es cómo esta cosa se vertió sobre fronteras nacionales.

El informe ofrece una visión seria sobre cómo la humanidad está al borde de la extinción y lo que la comunidad mundial debe aprender del riesgo de un apocalipsis. ¡Cosas de miedo!

Comentarios

Recientes

Flashback

Comentarios