• icon fb

4 formas en que las acciones del hombre pueden acabar con el mundo, según Stephen Hawking

Stephen Hawking considera que el hombre podría ser el principal agente que ocasione el fin del mundo. Estas son 4 formas en que se acabaría el mundo, según el científico

Stephen Hawking lanza estas advertencias

Stephen Hawking lanza estas advertencias

¿Cuál es el mayor riesgo que afronta la humanidad? Esa fue la pregunta que Larry King, el reconocido periodista estadounidense, le hizo al físico, quien contestó que la contaminación, la superpoblación, la codicia y la estupidez humana son los mayores riesgos. Stephen Hawking es uno de los científicos más destacados y reconocidos a nivel mundial, y en cada intervención pública siempre genera polémica con sus controversiales respuestas. A esos factores que consideraba como los mayores riesgos ahora identificó otros “motores” que llevarían al fin de la tierra. En un evento de la BBC le hicieron una serie de preguntas sobre los principales factores que ocasionarían el fin del mundo y el no dudó en atribuirle las causas como responsabilidad del hombre.

NO TE LO PUEDES PERDER: STEPHEN HAWKING: PARA SOBREVIVIR DEBEMOS SALIR DE LA TIERRA, NO TENEMOS MÁS DE MIL AÑOS

La guerra nuclear, el calentamiento global y los virus genéticamente modificados son algunos de los escenarios que señala Stephen Hawking como posibles causas del fin del mundo. El físico cree que la propia humanidad acabará con la humanidad, si no colonizamos antes otros planetas y estrellas. El científico especificó que esto no ocurriría en un año determinado sino como una acumulación de sucesos. Será “con certeza en los próximos 1.000 o 10.000 años” predijo, y aclaró que “para entonces ya deberíamos habernos esparcido por el espacio y hacia otras estrellas, por lo que un desastre en la Tierra no significará el fin de la raza humana”.

TAMBIÉN TE INTERESARÁ: ESTA ES LA TERRIBLE ADVERTENCIA DE STEPHEN HAWKING SOBRE LA LLEGADA DE LOS EXTRATERRESTRES A LA TIERRA

1. Por el calentamiento global

Según el reconocido físico, la humanidad no conoce los límites del calentamiento global “El peor de los escenarios sería la transformación de la Tierra en un planeta árido y ardiente, como Venus”. Hawking se muestra preocupado por este tema y ha recomendado en distintas presentaciones que debe haber una coordinación global real para establecer un plan efectivo contra el calentamiento. “Con una temperatura de 250 grados centígrados y lluvia ácida, la raza humana no podría sobrevivir en tales condiciones”.  El calentamiento global es un tema ya de actualidad y no tanto de futuro. Hawking está intrigado ¿Y tú?

2. Con una Guerra nuclear 

Un conflicto entre las potencias mundiales podrías desencadenar esta premisa. La tecnología militar y armamentista juega cada vez más un papel decisivo en el éxito de las operaciones ante la política bélica de muchas potencias y las contradicciones de un sistema que persigue la ganancia por encima de cualquier cosa, la competencia entre los hombres podría significar el fin de la humanidad según Hawking. 

3. Una guerra biológica

Según Hawking, no falta mucho para que las potencias desarrollen bacterias y virus inimaginables, resistentes a los antibióticos que pueden utilizarse como un arma imparable, incluso para sus propios inventores  ante las impredecibles mutaciones del ADN. Así sería cuando la ciencia serviría más que un misil o una bomba atómica.

"A largo plazo, estoy más preocupado por la biología. Las armas nucleares necesitan grandes instalaciones, pero la ingeniería genética puede hacerse en un laboratorio pequeño. No puedes regular cada laboratorio del mundo. El peligro es que, por accidente o por diseño, creemos un virus que nos destruya", afirmó el científico en una entrevista al diario The Telegraph.

 4. A consecuencia de los robots

"El éxito en la creación de inteligencia artificial sería el evento más grande de la historia de la humanidad. Por desgracia, también podría ser el último, a menos que aprendamos cómo evitar los riesgos", afirmó. Hawking aseguró que es posible que las máquinas inteligentes diseñen sus propias mejoras y sean mejor que los humanos.