Sztuczna inteligencja zagraża ludzkości
Naukowcy z Google DeepMind i Uniwersytetu Oksfordzkiego opublikowali wspólny artykuł, z którego wynika, że sztuczna inteligencja może stanowić egzystencjalne zagrożenie dla ludzkości.
Według uczonych odpowiedzialnym za taki stan ponoszą systemy Generative Adversarial Networks (GAN) używanymi dziś w rozwoju sztucznej inteligencji. Działają one w ramach dwóch kryteriów: jedna część próbuje wygenerować obraz z danych wejściowych, podczas gdy druga ocenia jego wydajność.
Naukowcy spekulują w swoim artykule, że zaawansowana sztuczna inteligencja może wymyślić strategię oszukiwania. Po to, aby skuteczniej uzyskać nagrodę, a jednocześnie zaszkodzić ludzkości.
„Jeśli rywalizujesz z czymś, co może cię przechytrzyć na każdym kroku, to nie powinieneś oczekiwać, że wygrasz. A drugą kluczową częścią jest to, że miałby nienasycony apetyt na więcej energii, aby coraz bardziej zwiększać prawdopodobieństwo”. Te słowa wypowiedział współautor artykułu Michael K. Cohen z Uniwersytetu Oksfordzkiego w wywiadzie dla Motherboard.
Np. jeśli sztuczna inteligencja byłaby odpowiedzialna za uprawę żywności, może chcieć znaleźć sposób, aby zdecydować się na obejście przydzielonych zadań. Prawdopodobnie byłyby one niezbędne dla przetrwania ludzkości.
Artykuł dowodzi, że w tym momencie ludzkość utknęłaby w grze o sumie zerowej między podstawowymi potrzebami przetrwania a technologią. „Przegrana w tej grze byłaby śmiertelna” – brzmi konkluzja artykułu.
Czytaj także: Czy sztuczna inteligencja poradzi sobie w sporcie elektronicznym?