Ядерная война, глобальное потепление и генетически модифицированные вирусы — это некоторые из сценариев, которые Хокинг называет причиной возможного исчезновения человечества с Земли. И он говорит, что прогресс в науке и технологиях будет создавать всё новые и новые угрозы, так что с каждым годом риск возрастает.
«При том, что в отдельно взятом году угрозу глобальной катастрофы на планете можно оценить как относительно невысокую, с течением времени риск будет только возрастать, что сделает подобное бедствие практически неизбежным в ближайшие тысячу или десять тысяч лет, — сказал Хокинг. — К этому времени мы должны будем обосноваться в космосе, на других звёздах, чтобы конец Земли не стал концом человечества».
Профессор Хокинг прочитал лекцию в рамках проекта BBC Reith Lectures, посвящённого исследованиям чёрных дыр. Его рассуждения стали ответом на вопрос аудитории.
«Мы не в состоянии соорудить автономные колонии в космосе по крайней мере в ближайшие 100 лет, поэтому в это время нам стоит быть очень осторожными», — заявил Хокинг.
Главная угроза для человечества — не астероид или чёрная дыра, а сами люди. «Даже если вы попадете в чёрную дыру, вы сможете выжить, там есть выход, — сказал Хоккинг. — А прогресс может нас погубить с большей вероятностью. Мы не должны его останавливать, но мы обязаны признать опасность развития науки и более тщательно её контролировать».
Год назад Стивен Хокинг предупреждал об угрозе искусственного интеллекта, называя его «величайшей ошибкой человечества». Обладая способностью к самообучению, ИИ будет самосовершенствоваться непрерывно, это запустит процесс технологической сингулярности. Такая технология превзойдет человека и начнёт управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию.