Systemy techniczne tworzące infrastrukturę nowoczesnej cywilizacji są tak nasycone i złożone, że w każdej chwili mogą się zamienić w bomby zegarowe z uruchomionym zapalnikiem. Mogą eksplodować zwyczajnie, przez przypadek, w wyniku pecha, drobnego ludzkiego błędu: „Katastrofalne wypadki są możliwe nawet w dobrze prowadzonych i regulowanych instytucjach – ostrzega Rees. – Na przykład przypadkowe utworzenie lub emisja niebezpiecznego i szybko namnażającego się patogenu albo tragiczny w skutkach błąd w oprogramowaniu”. Uczony na tym nie poprzestaje i zapowiada, że w ciągu 10 lat pojedynczy ludzie zyskają taką moc destrukcji, wobec której obecne zagrożenie, jakie stwarza Al-Kaida, jest dziecinną igraszką. Wystarczy „zwykły fanatyk lub osoba niedostosowana społecznie z cechami osobowości, jakie mają współcześni projektanci wirusów komputerowych. Ludzi o takich cechach znaleźć można w każdym kraju: niewielu, to prawda, ale bio- i cybertechnologie w ciągu najbliższych lat staną się tak wszechmocne, że nawet jeden wariat to zbyt wiele”.
Zapowiedzi Królewskiego Astronoma współbrzmią z inną katastroficzną wizją przedstawioną w 2000 r. przez Billa Joya – guru informatycznego, twórcę wielu ważnych dla cywilizacji internetowej rozwiązań. W eseju „Dlaczego przyszłość nas nie potrzebuje?” („Why the Future Doesn’t Need Us?”) opublikowanym w amerykańskim magazynie „Wired” ostrzega przed wymknięciem się rozwoju technicznego spod kontroli. Postęp w informatyce, biotechnologii i nanotechnologii spowoduje, że najdalej w ciągu 25–50 lat powstaną systemy techniczne obdarzone inteligencją przewyższającą zdolności najgenialniejszych ludzi.