×

Głos zza grobu – ostateczne przemyślenia i ostrzeżenia Hawkinga dotyczące przyszłości ludzkości

Doskonale wszystkim znany astrofizyk Stephen Hawking zmarł 14 marca 2018 roku. Dopiero po śmierci ukazała się jego ostatnia książka „Krótkie odpowiedzi na wielkie pytania”. Niewiele osób zna tą lekturę, a kryje ona wiele ważnych przemyśleń autora, którymi kierował się w życiu i jednocześnie stanowi przestrogę dla przyszłości ludzkości.


Krótkie odpowiedzi na wielkie pytania

Hawking w swojej ostatniej książce postawił szereg bardzo odważnych stwierdzeń dotyczących przyszłości. Można je traktować jako pewnego rodzaju ostrzeżenia i odnoszą się do kwestii, które astrofizyk często poruszał.

W książce Hawking zawarł swoje przemyślenia dotyczące edycji genów, sztucznej inteligencji, a nawet religii. „Krótkie odpowiedzi na wielkie pytania” już stała się przedmiotem debaty wielu specjalistów, którzy postanowili wyrazić swoje zdanie.

Superludzie

Wielu ludzi marszczyło brwi, gdy Hawking twierdził, że nadejdzie czas, gdy wpływowi i bogaci ludzie zdecydują się edytować swoje geny, by stać się inteligentniejszymi, silniejszymi i dłużej żyjącymi – superludźmi. W książce wyraził obawy, że reszta „po prostu wymrze lub stanie się zupełnie nieistotna” w obliczu władców świata.

Wielu genetyków podziela zdanie Hawkinga i uważa to za nieuchronne. Istnieją obawy, że ludzie zaczną nadużywać CRISPR do edycji swoich genów zanim technologia w ogóle zostanie uznana za bezpieczną, czego świadkami byliśmy zresztą nie raz. Specjaliści już teraz uważają, że konieczne są nowe prawa w celu ochrony.

Prawdopodobnie będziemy potrzebować nowych międzynarodowych struktur nadzorczych, by nie okazało się, że trafiliśmy do „Nowego wspaniałego świata”. – powiedział George Daley, dziekan wydziału medycyny w Harvard Medical School już w 2015 roku

Zabójcza sztuczna inteligencja

O sztucznej inteligencji Hawking mówił równie często. Nie raz wyraził swój lęk przed naprawdę potężnym programem, co również powtarza w swojej książce. Hawking pisze, że ignorowanie groźby stworzenia superpotężnej sztucznej inteligencji może być „najgorszym błędem w historii ludzkości”, gdyż mogłaby nas zniszczyć bronią, „której nawet w pełni nie jesteśmy w stanie zrozumieć”.

W tej kwestii toczy się wiele debat. Jednak obawy Hawkinga podziela cała masa ludzi związanych z nowoczesnymi technologiami. Nawet ekscentryczny miliarder Elon Musk zgadza się, że zaawansowana sztuczna inteligencja może stanowić zagrożenie dla ludzkości. Inni do sztucznej inteligencji podchodzą nieco sceptyczniej.

Nie ma powodu by martwić się samoświadomymi algorytmami sztucznej inteligencja, które wyznaczają własne cele i szaleją. – powiedział Richard Stanher z Uniwersytetu Stanforda

Bez bogów, bez władców

W książce Hawking poruszył także kwestie związane z religią. „Wiara w życie pozagrobowe jest po prostu pobożnym życzeniem. Nie ma takiej możliwości, by Bóg istniał”. Astrofizyk słynął ze swojej wiary, a raczej jej braku.

Choć wielu naukowców z pewnością zgadza się z tym twierdzeniem, zaskoczeniem było badanie przeprowadzone w 2015 roku. Okazało się, że ogromna część społeczności naukowej jest w rzeczywistości wierząca, choć w pewnym sensie dominuje tu swego rodzaju sceptycyzm.


Mika Nojewska

Miłośniczka wszystkiego, co dziwne i ciekawe. Głównie tworzy teksty dla nauka.rocks i przed komputerem spędza więcej czasu, niż chciałaby się przyznać. W wolnym czasie odkrywa nieodkryte i próbuje opanować świat. Kocia mama i mag na 55 levelu

Może Cię zainteresować