Obliczenia pokazują, że nie będziemy w stanie kontrolować sztucznej superinteligencji
Od dziesięcioleci trwa debata o sztucznej inteligencji, która potencjalnie doprowadzi do obalenia ludzkości. Naukowcy w końcu wydali werdykt, czy będziemy w stanie kontrolować superinteligencję komputerową na wysokim poziomie.
Sztuczna superinteligencja
Odpowiedź nie będzie pocieszeniem, bo jednogłośnie padła odpowiedź, że prawie na pewno nie. Wszystko sprowadza się do tego, że kontrolowanie superinteligencji daleko wykraczającej poza ludzkie pojęcie wymagałoby symulacji, którą jesteśmy w stanie przeanalizować.
Problem w tym, że jeśli nie jesteśmy w stanie jej pojąć, tym samym nie da się jej stworzyć. W takich okolicznościach klasyczne zasady „nie szkodzić ludziom” nie mogą zostać ustalone, jeśli nie rozumiemy jakiego rodzaju scenariusze wytworzy sztuczna inteligencja.
Ustalanie limitów
Gdy system komputerowy działa na poziomie przekraczającym możliwości naszych programistów, nie możemy ustalać limitów. Superinteligencja stanowi fundamentalnie inny problem niż te, które są zwykle badane pod hasłem „etyki robotów”.
Wnioski naukowców zostały opublikowane w Journal of Artificial Intelligence Research. Część przypuszczeń zespołu pochodzi z problemu stopu przedstawionego przez Alana Turinga w 1936 roku.
Każdy program napisany w celu powstrzymania sztucznej inteligencji szkodzącej ludziom i niszczeniu świata, może dojść do własnego wniosku (i zatrzymać się) lub nie. Matematycznie niemożliwe jest, abyśmy byli pewni którejkolwiek z opcji, co oznacza, że nie można go powstrzymać.
Dzieje się tak, ponieważ superinteligencja jest wieloaspektowa, a zatem potencjalnie zdolna do mobilizowania różnorodnych zasobów w celu osiągnięcia celów, które są potencjalnie niezrozumiałe dla ludzi, nie mówiąc już o kontrolowaniu. W efekcie algorytm powstrzymywania jest bezużyteczny. – pisze zespół
Problematyczna kwestia
Alternatywą dla nauczenia sztucznej inteligencji pewnej etyki i zakazania jej niszczenia świata (czego żaden algorytm nie może być absolutnie pewien) jest ograniczenie możliwości superinteligencji odcinając ją od części Internetu lub niektórych sieci.
Nowe badanie odrzuca jednak ten pomysł, gdyż to ograniczyłoby możliwości SI. Jeśli nie zamierzamy jej używać do rozwiązywania problemów wykraczających poza ludzkie możliwości, to po co w ogóle ją tworzyć?
Posuwając się ze sztuczną inteligencją nie jesteśmy w stanie przewidzieć, kiedy pojawi się taka, która wykracza poza naszą kontrolę. Właśnie na tej niezrozumiałości polega problem. Oznacza to, że musimy zacząć zadawać poważne pytania dotyczące kierunku, w którym zmierzamy.
Superinteligentna maszyna, która kontroluje świat, brzmi jak science fiction. Ale są już maszyny, które wykonują pewne ważne zadania niezależnie, bez pełnego zrozumienia przez programistów, w jaki sposób się tego nauczyły. Powstaje zatem pytanie, czy w pewnym momencie mogłoby to stać się niekontrolowane i niebezpieczne dla ludzkości. – podsumował Manuel Cebrian z Instytutu Rozwoju Maxa-Plancka