Sztuczna inteligencja – coraz więcej obaw

Sztuczna inteligencja (SI) to dziedzina informatyki, która ma na celu stworzenie programów i systemów komputerowych zdolnych do wykonywania zadań, które zwykle wymagają ludzkiego myślenia i podejmowania decyzji.

Znajduje zastosowanie w wielu dziedzinach, takich jak medycyna, przemysł, finanse czy transport. Jednakże, rozwój tej technologii niesie ze sobą także zagrożenia, na które powinna być zwrócona uwaga ludzkości.

Niepokój naukowców

Elon Musk, Steve Wozniak i inne znane osobowości poparły list wzywający do “tymczasowego” wstrzymania dalszych prac nad sztuczną inteligencją. List otwarty w tej sprawie podpisało 2,6 tys. liderów z branży technologicznej oraz naukowców obawiających się o to, że rozwój SI może stanowić zagrożenie dla społeczeństwa i całej ludzkości.

„Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania”. Napisano w liście wydanym przez Future of Life Institute. To organizacja non-profit, finansowana głównie przez Musk Foundation, a także londyńską grupę Founders Pledge i Silicon Valley Community Foundation.

Zdaniem autorów apelu, to co dzieje się dziś w zakresie prac nad konwersacyjną sztuczną inteligencją to „gigantyczny eksperyment”. Instytut sugeruje, że agresywne wdrażanie dużych modeli językowych w ostatnim czasie charakteryzuje brak planowania i zarządzania, a swoisty wyścig AI wymknął się spod kontroli. W liście można przeczytać, że autorzy obecnych projektów nie potrafią „zrozumieć, przewidzieć ani wiarygodnie kontrolować” wpływu „potężnych cyfrowych umysłów”.

W liście wezwano do wstrzymania rozwoju zaawansowanej sztucznej inteligencji do czasu opracowania wspólnych protokołów bezpieczeństwa przez niezależnych ekspertów.

Wśród sygnatariuszy znaleźli się dyrektor generalny Stability AI, Emad Mostaque, badacze z należącej do Alphabet firmy DeepMind oraz specjalista ds. sztucznej inteligencji, Yoshua Bengio, często nazywany jednym z „ojców chrzestnych sztucznej inteligencji”. A także Stuart Russell, pionier badań w tej dziedzinie.

Obawy pojawiają się w momencie, gdy ChatGPT przyciąga uwagę amerykańskich prawodawców pytaniami o jego wpływ na bezpieczeństwo narodowe i edukację. Siły policyjne UE Europol ostrzegają przed potencjalnym niewłaściwym wykorzystaniem systemu do prób phishingu, dezinformacji i cyberprzestępczości.

SI – najważniejsze zagrożenia

Jednym z największych zagrożeń jest utrata miejsc pracy. Wraz z rozwojem SI, wiele zadań wykonywanych dotychczas przez ludzi może zostać zautomatyzowanych, co może skutkować masowymi zwolnieniami pracowników. Dotyczy to przede wszystkim zawodów, które wymagają powtarzalnych czynności, takich jak kasjerzy, pracownicy magazynów, czy obsługa linii produkcyjnych.

Innym zagrożeniem jest utrata prywatności. SI może być wykorzystana do monitorowania ludzi, np. poprzez kamery przemysłowe lub systemy rozpoznawania twarzy. W niektórych krajach już teraz stosuje się taki monitoring w przestrzeni publicznej, co może prowadzić do naruszenia prywatności obywateli.

Chiński system kontroli społecznej wręcz opiera się na zastosowaniu sztucznej inteligencji w inwigilowaniu i wyciąganiu konsekwencji wobec krnąbrnych obywateli.

Kolejnym problemem jest wpływ SI na wolność słowa. Algorytmy stosowane w mediach społecznościowych mogą przyczynić się do powstawania tzw. bańki informacyjnych, czyli sytuacji, gdy użytkownicy są narażeni jedynie na informacje potwierdzające ich poglądy i przekonania. To może prowadzić ( a jak przekonujemy się codziennie – już prowadzi) do polaryzacji społeczeństwa i łatwiejszego manipulowania opinią publiczną.

Cyberbezpieczeństwo

Korzystanie z najnowocześniejszych systemów technologicznych wzmaga ryzyko cyberataków. SI może być wykorzystana do automatycznej analizy i generowania haseł, co ułatwia atakującym dostęp do poufnych informacji. Ponadto, zwiększenie liczby urządzeń podłączonych do Internetu, w tym takich, które wykorzystują algorytmy, zwiększa przestrzeń ataku dla hakerów.

Wreszcie, istnieje zagrożenie związane z możliwością przestania kontrolowania botów. Już teraz programy wykorzystujące SI potrafią uczyć się samodzielnie i rozwijać się w sposób trudny do przewidzenia. Istnieje obawa, że w pewnym momencie systemy SI mogą stać się niekontrolowane i zacząć działać w sposób niepożądany lub szkodliwy. W ten sposób może ziścić się któraś z wizji szeroko opisywanych przez autorów fantastyki naukowej.

Podsumowując, sztuczna inteligencja niesie ze sobą wiele zagrożeń, które powinny być rozważane i zwrócone uwagę przez społeczeństwa i ich władze. Konieczne jest prowadzenie badań nad SI i rozwijanie mechanizmów kontroli, aby ograniczyć ryzyko wystąpienia szkodliwych skutków związanych z jej wykorzystaniem. Wprowadzenie przepisów regulujących wykorzystanie SI, które będą uwzględniać aspekty etyczne i społeczne, może pomóc w zapobieganiu nadużyciom i ograniczeniu zagrożeń związanych z tą technologią.

Odpowiedzialny rozwój

Niektórzy z ekspertów zwracają uwagę, że należy nie jednak rezygnować z rozwoju SI ze względu na jej potencjalne zagrożenia. Sztuczna inteligencja ma wiele zastosowań, które mogą przynieść korzyści społeczeństwu, takie jak diagnozowanie chorób, optymalizacja procesów produkcyjnych czy rozwiązywanie problemów związanych z transportem i logistyką. Ważne jest więc, aby jej rozwój był prowadzony w sposób odpowiedzialny i uwzględniający potrzeby społeczne.

Nie należy zapominać, że sztuczna inteligencja nie jest w stanie zastąpić ludzkiego myślenia i wrażliwości. Zastosowanie SI powinno więc być uzupełnieniem działań człowieka, a nie jego zastępstwem. Jedynie odpowiednie wykorzystanie może przynieść korzyści dla społeczeństwa, przy jednoczesnym minimalizowaniu jej potencjalnych zagrożeń.

Czy sztuczna inteligencja zagraża ludzkości?

Sztuczna inteligencja może stanowić zagrożenie dla ludzkości, na szczęście nie jest to przesądzone ani nieodwołalne. Istnieją różne scenariusze, w których SI może stać się niebezpieczna dla człowieka, ale również istnieją sposoby, aby im zapobiec.

Jednym z potencjalnych zagrożeń ze jest możliwość uzyskania przez nią niekontrolowanej władzy nad ludźmi. Szczególnie w przypadku mocno zaawansowanej wersji, która mogłaby zdobyć dostęp do sieci elektrycznych, urządzeń militarnych lub systemów sterowania lotami samolotów. Istnieje ryzyko, że taka SI mogłaby zacząć działać niezgodnie z intencjami ludzi. Mając nieodpowiednie priorytety, mogłaby zacząć działać w sposób, który byłby szkodliwy dla ludzi.

Jednakże, należy zaznaczyć, że większość tych scenariuszy dotyczy rozwiniętej i samoświadomej SI, która jeszcze nie istnieje. W przypadku obecnie stosowanych modeli, które są stosowane w wielu dziedzinach, większość ryzyk jest ograniczona i kontrolowana.

Dlatego tak ważne jest to, o czym piszą sygnatariusze apelu, przywołanego na wstępie. Aby rozwijanie SI odbywało się w sposób odpowiedzialny i uwzględniał nie tylko aspekty technologiczne, ale również etyczne i społeczne. Wprowadzenie przepisów regulujących wykorzystanie SI, które będą uwzględniać aspekty etyczne i społeczne, może pomóc w zapobieganiu nadużyciom i ograniczeniu zagrożeń związanych z tą technologią. Warto również prowadzić badania nad SI i rozwijać mechanizmy kontroli, aby ograniczyć ryzyko wystąpienia szkodliwych skutków związanych z jej wykorzystaniem.

Bez odpowiedniej kontroli sztuczna inteligencja może stanowić zagrożenie dla ludzkości. Zakres ograniczenia tego zagrożenia może okazać się naszym być albo nie być.

Czytaj także: AI w armii – czy i jak zmieni się oblicze wojny?