Wezwanie do wstrzymania rozwoju AI
Elon Musk i grupa ok. tysiąca ekspertów w dziedzinie sztucznej inteligencji i dyrektorów firm z branży technologicznej wzywają do sześciomiesięcznej przerwy w opracowywaniu systemów potężniejszych niż GPT-4.
W liście otwartym, powołują się na potencjalne zagrożenia dla społeczeństwa.
Na początku marca firma OpenAI, wspierana przez Microsoft, zaprezentowała czwartą iterację swojego programu AI GPT (Generative Pre-trained Transformer).
„Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko będzie możliwe do opanowania”. Napisano w liście wydanym przez Future of Life Institute. To organizacja non-profit, finansowana głównie przez Musk Foundation, a także londyńską grupę Founders Pledge i Silicon Valley Community Foundation.
W liście wezwano do wstrzymania rozwoju zaawansowanej sztucznej inteligencji do czasu opracowania wspólnych protokołów bezpieczeństwa przez niezależnych ekspertów.
Wśród współsygnotariuszy znaleźli się dyrektor generalny Stability AI, Emad Mostaque, badacze z należącej do Alphabet firmy DeepMind oraz specjalista ds. sztucznej inteligencji, Yoshua Bengio, często nazywany jednym z „ojców chrzestnych sztucznej inteligencji”. A także Stuart Russell, pionier badań w tej dziedzinie.
Obawy pojawiają się, gdy ChatGPT przyciąga uwagę amerykańskich prawodawców pytaniami o jego wpływ na bezpieczeństwo narodowe i edukację. Siły policyjne UE Europol ostrzegły w poniedziałek przed potencjalnym niewłaściwym wykorzystaniem systemu do prób phishingu, dezinformacji i cyberprzestępczości.
Czytaj także: Dyrektor OpenAI obawia się chatbotów z AI