Rozmowa z chatbotem wpływa na polityczne decyzje wyborców? Nowe badanie!
Badania międzynarodowego zespołu naukowców, w którym uczestniczyli także specjaliści z Instytutu Psychologii Uniwersytetu Jagiellońskiego, pokazują, że chatboty oparte na sztucznej inteligencji mogą realnie i skutecznie wpływać na decyzje wyborcze.
Co istotne, ich oddziaływanie okazuje się silniejsze niż w przypadku tradycyjnych reklam politycznych, a nawet krótka rozmowa z modelem językowym potrafi zauważalnie przesunąć preferencje wyborców.
Rosnąca obecność generatywnej sztucznej inteligencji w życiu publicznym od dawna budzi obawy o jej wpływ na demokrację. Chatboty, trenowane na ogromnych zbiorach danych i zdolne do prowadzenia naturalnych rozmów, nie tylko przekazują informacje, lecz także reagują na poglądy i emocje rozmówców. Dotychczas nie było jednak jasne, czy taka forma dialogu rzeczywiście może zmieniać polityczne postawy na większą skalę. Opisywane badania dostarczają pierwszych tak wyraźnych i porównywalnych dowodów.
Naukowcy sprawdzili działanie chatbotów w realistycznym kontekście wyborczym w trzech krajach: w Stanach Zjednoczonych, Kanadzie i Polsce. Uczestnicy badań byli losowo kierowani do rozmów z modelami AI, które w sposób uprzejmy, oparty na faktach i dostosowany do rozmówcy przedstawiały argumenty na rzecz jednego z głównych kandydatów. Przed i po rozmowie badani deklarowali swoje preferencje wyborcze oraz skłonność do udziału w głosowaniu, co pozwoliło precyzyjnie ocenić skalę zmian. Wyniki okazały się jednoznaczne.
Rozmowy z chatbotami prowadziły do wyraźnych przesunięć preferencji politycznych, znacznie większych niż te obserwowane wcześniej po kontakcie z klasycznymi spotami wyborczymi. W USA efekt był kilkukrotnie silniejszy niż wpływ reklam wideo znanych z poprzednich kampanii. Jeszcze wyraźniejsze zmiany zaobserwowano w Kanadzie i w Polsce, gdzie rozmowy z AI potrafiły zmieniać deklaracje wyborcze nawet o kilkanaście punktów procentowych, zwłaszcza wśród osób skłaniających się ku kandydatom opozycyjnym.
Szczególnie istotnym wnioskiem z badań jest rola faktów i danych w perswazji. Gdy chatboty mogły swobodnie odwoływać się do informacji i argumentów opartych na faktach, ich skuteczność była znacznie wyższa. Ograniczenie tej możliwości prowadziło do wyraźnego osłabienia efektu. Analiza sposobu prowadzenia rozmów pokazała, że modele AI rzadko sięgały po emocjonalne manipulacje czy agresywne techniki wpływu.
Badania ujawniły potencjalne zagrożenia
Zamiast tego stawiały na spokojny ton, logiczne argumenty i dopasowanie przekazu do wartości rozmówcy. Badania ujawniły jednak także potencjalne zagrożenia. Nie wszystkie informacje przedstawiane przez chatboty jako fakty były w pełni poprawne, a modele promujące kandydatów z prawej strony sceny politycznej częściej generowały treści wprowadzające w błąd. To ważny sygnał, że sztuczna inteligencja może powielać istniejące w społeczeństwie nierówności informacyjne, zamiast je korygować.
Znaczenie tych badań wykracza daleko poza świat akademicki. Wyniki mogą być wykorzystane przy projektowaniu regulacji dotyczących kampanii wyborczych, tworzeniu zasad odpowiedzialnego użycia AI w polityce oraz edukacji obywatelskiej. Pokazują też, że dialogowe narzędzia oparte na sztucznej inteligencji mają potencjał, by stać się jednym z najważniejszych kanałów perswazji politycznej w nadchodzących latach. Zrozumienie mechanizmów ich działania jest kluczowe, jeśli demokracje chcą świadomie korzystać z nowych technologii, jednocześnie ograniczając ryzyko manipulacji i dezinformacji.
Źródło: Uniwersytet Jagielloński w Krakowie
Grafika tytułowa: Shantanu Kumar / Unsplash

