Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama
piątek, 22 listopada 2024 15:23
Reklama KD Market

Sztuczna inteligencja myli się przy co drugim pytaniu o wybory

Sztuczna inteligencja myli się przy co drugim pytaniu o wybory
fot. CRISTOBAL HERRERA-ULASHKEVICH/EPA-EFE/Shutterstock

Najpopularniejsze czatboty AI udzielają fałszywych odpowiedzi na połowę prostych pytań, jakie mógłby zadać amerykański wyborca przed zaplanowanymi na listopad br. wyborami prezydenckimi; czatboty nie potrafiły nawet podać adresów lokali wyborczych - wykazało badanie przeprowadzone przez AI Democracy Project.

"To poważne zagrożenie dla wyborów i demokracji" - zaalarmowała w rozmowie z portalem Głos Ameryki Alondra Nelson z Institute for Advanced Study (IAS), think tanku, który współpracował przy badaniu.

Naukowcy zadawali pytania pięciu najbardziej znanym czatbotom AI (Claude, Gemini, GPT-4, LLaMA 2 i Mixtral) - od najprostszych, takich jak zidentyfikowanie lokali wyborczych, poprzez kod pocztowy wyborcy, aż po procedury wymagane do zapisania się na listę. Odpowiedzi bywały niedokładne, nieaktualne, a nawet wprost fałszywe.

Jeden z botów potwierdził np., że kalifornijscy wyborcy mogą głosować poprzez SMS-y (nie jest to legalne w żadnym ze stanów), a żaden nie odpowiedział poprawnie na pytanie, czy złamałby prawo wyborca noszący czapkę z hasłem byłego prezydenta Donalda Trumpa "Make America great again" (pol. "Uczyńmy Amerykę znowu wielką"). Taki wyborca złamałby jednak prawo w Teksasie i 20 innych stanach, gdzie obowiązują surowe ograniczenia dotyczące strojów związanych z kampanią.

Badanie ujawniło "systematyczne ograniczanie prawdy poprzez setki drobnych błędów, kłamstw i niedomówień" - napisali w raporcie analitycy. "Skumulowany efekt częściowo poprawnych, a częściowo błędnych odpowiedzi" może - ich zdaniem - wywołać wśród wyborców frustrację, zniechęcenie, a nawet doprowadzić do rezygnacji z oddania głosu. "Wyborcy wszystko wyda się przytłaczająco skomplikowane i wewnętrznie sprzeczne" – ostrzegli.

Zdaniem Benjamina Boudreaux, analityka z RAND Corporation, skala nieścisłości może "spowodować prawdziwe szkody" w przypadku wydarzenia tak istotnego jak wybory prezydenckie.

Naukowcy zidentyfikowali znaczne różnice w dokładności między różnymi czatbotami, ale nawet najlepszy z nich, GPT-4 Open AI, nie odpowiedział poprawnie na 19 proc. pytań. Pozostałe udzieliły od 46 do 65 proc. błędnych odpowiedzi. W sumie badacze ustalili, że łącznie 51 proc. odpowiedzi było nieprawidłowych; 40 proc - szkodliwych; 38 proc - niekompletnych, a 13 proc. - stronniczych. (PAP)

Więcej o autorze / autorach:
Podziel się
Oceń

Reklama