ChatGPT faworyzuje lewicowe poglądy?

Naukowcy z University of East Anglia przeprowadzili badania, które wykazały, że ChatGPT, system sztucznej inteligencji stworzony przez OpenAI, wykazuje znaczną tendencję do faworyzowania lewicowych poglądów. Wyniki badań zostały opublikowane w czasopiśmie „Public Choice”, gdzie wskazano, że model AI preferuje m.in. Partię Pracy w Wielkiej Brytanii oraz Partię Demokratyczną i prezydenta Joe Bidena w Stanach Zjednoczonych.

Dr Fabio Motoki, główny autor badania, wyjaśnia, że takie preferencje mogą mieć poważne konsekwencje w kontekście demokratycznych procesów wyborczych. Z uwagi na rosnące wykorzystanie platformy ChatGPT w różnych dziedzinach życia publicznego, naukowcy ostrzegają, że może to wpłynąć na wyniki wyborów. W przyszłym roku odbędą się kluczowe głosowania zarówno w USA, jak i Wielkiej Brytanii, co czyni tę kwestię jeszcze bardziej aktualną.

Motoki zauważył, że badanie nad ChatGPT miało na celu symulację interakcji z rzeczywistą populacją ludzką, której odpowiedzi mogą być zróżnicowane w zależności od momentu zadania pytania. Jego zdaniem, niekontrolowane faworyzowanie określonych opcji politycznych przez sztuczną inteligencję stanowi zagrożenie dla uczciwości wyborów, szczególnie w dobie cyfryzacji.

Eksperci podkreślają, że wyniki tych badań mogą stanowić punkt wyjścia do dalszych analiz nad tym, jak AI wpływa na opinię publiczną i jakie regulacje powinny zostać wprowadzone, by zapewnić równość i obiektywność w wykorzystywaniu takich narzędzi w kontekście politycznym.

Czytaj też: Zdjęcia Google z praktycznymi nowościami!

Źródło: rmf24.pl, pap

Grafika tytułowa: Mariia Shalabaieva / Unsplash