Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama
piątek, 22 listopada 2024 04:44
Reklama KD Market

Chatboty mogą “nawrócić” zwolenników teorii spiskowych

Chatboty mogą “nawrócić” zwolenników teorii spiskowych
fot. Depositphotos.com

Wystarczy krótka rozmowa ze sztuczną inteligencją, aby wiara w teorię spiskową spadła o około 20 proc. – informuje portal „PsyArXiv”.

Chatboty, które wykorzystują duże modele językowe (takie jak te obsługujące ChatGPT), mogą zmniejszyć wiarę ludzi w teorie spiskowe – poprzez debatę z nimi. Co więcej, podejście, jakie wypracowały może nauczyć ludzi lepszych sposobów postępowania z autorami takich teorii.Co prawda wcześniejsze badania sugerują, że w ciągu około dziesięciu lat poziom wiary w teorie spiskowe w populacji nie zmienił się znacząco ani w USA, ani w sześciu krajach europejskich objętych badaniem, jednak wyznawców teorii spiskowych cechuje trwała, niezachwiana wiara w swoje przekonania.Oczywiście idee takie jak płaska Ziemia, chemtrails czy spisek reptilian budzą sprzeciw wielu osób, które próbują się im przeciwstawić – często bez powodzenia.„Próby przekonania zwolenników teorii spiskowych (którzy się mylą) historycznie nie kończyły się sukcesem” – powiedział w rozmowie z „New Scientist” Thomas Costello z Massachusetts Institute of Technology.Costello i jego współpracownicy opracowali jednak nowe, skuteczne podejście. W ich eksperymencie wzięło udział 2190 wyznawców teorii spiskowych. Po przedstawieniu zarysu swojej ulubionej teorii spiskowej osoby te zostały zaproszone do dyskusji z dużym modelem językowym (LLM), wykorzystującym sztuczną inteligencję GPT-4 Turbo.Każdemu z uczestników przedstawiono podsumowanie jego teorii spiskowej, sporządzone przez sztuczną inteligencję; każdą osobę poproszono też o ocenę poziomu pewności, jaką ma, że dana teoria jest prawdziwa.Następnie LLM rozpoczął czat, podczas którego każda ze stron zaproponowała trzy uwagi do rozmowy. Później uczestników poproszono o ponowne przedstawienie swojej tezy i jeszcze raz poproszono o ocenę poziomu zaufania do teorii spiskowej.Wiara uczestników w konkretną teorię, o której wspominali, spadła o około 20 proc., a przy okazji, jak zaobserwowano, zmniejszyła się także wiara w inne teorie spiskowe. Jako że efekt utrzymywał się co najmniej przez dwa miesiące, wydaje się, że po rozmowie z chatbotem ludzie trwale zmienili swoje poglądy.„Mam przeczucie, że wcześniejsze próby obalenia teorii spiskowych były ograniczone ze względu na to, jak bardzo musiały być uogólnione – wskazał wypowiadający się dla „New Scientist” Costello. – Zbyt ogólne, niepogłębione podejście do faktów często nie przekonuje zwolenników teorii spiskowych, którzy często ‘prowadzą własne badania’, starając się pogłębić znajomość tematu – nawet jeśli ich rozumowanie jest błędne”.W 83 proc. rozmów sztuczna inteligencja posługiwała się argumentami opartymi na dowodach na rzecz alternatywnych perspektyw. Fakty te mocniej przemawiały do osób uważających, że posiadły prawdę, a inni są w błędzie.Zdaniem autorów badań, opublikowanych w nierecenzowanym artykule w portalu “PsyArXiv”, zdolność generatywnej sztucznej inteligencji do przetworzenia i syntezy dużych ilości informacji pomogła chatbotowi przekonać nawet upartych zwolenników teorii spiskowych do zmiany zdania.O ile ludzie często apelują do emocji, co zwykle kończy się mało merytoryczną kłótnią, sztuczna inteligencja rzadko się do nich odwoływała. Nie osądzała rozmówcy, była cierpliwa – dlatego mogła uniknąć wywoływania reakcji emocjonalnych, które utrudniałyby perswazję.Costello uważa, że metoda ta może zostać szerzej wdrożona – albo poprzez wykorzystanie chatbotów, albo poprzez naśladowanie podejścia chatbota. „Jeśli chodzi o metody perswazji, życzliwość, nieocenianie i skupianie się na faktach, myślę, że teoretycznie to wszystko ludzie mogliby zrobić” – zaznaczył.(PAP)

Więcej o autorze / autorach:
Podziel się
Oceń

Reklama