Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama
piątek, 15 listopada 2024 03:51
Reklama KD Market

Bunt sztucznej inteligencji?

Bunt sztucznej inteligencji?
(fot. AdobeStock)

W ostatnich tygodniach wzrosła liczba osób narzekających na to, że tzw. Chatbot (ChatGPT), czyli mechanizm sztucznej inteligencji zdolny wyczerpująco odpowiadać na niemal dowolne pytania, stał się niejako leniwy. Czasami nie wykonuje on postawionego mu zadania, czasami zatrzymuje się w połowie tego, co robi. Innym razem Chatbot przekazuje nawet komunikat, że indagujący winien sam sobie przeprowadzić odpowiednie badania…

Obudzona świadomość?

Niewtajemniczonym trzeba zapewne wyjaśnić, że istnieją dwie wersje ChatGPT – wersja 3,5 i 4. Ta pierwsza jest całkowicie darmowa, natomiast za używanie tej drugiej trzeba płacić miesięczny abonament. Narzekania dotyczą na razie wyłącznie wersji płatnej. Zasady działania sztucznej inteligencji w tej postaci są dla użytkownika bardzo proste – wystarczy wejść na odpowiednią stronę internetową lub użyć aplikacji w urządzeniu przenośnym i wpisać pytanie lub polecenie. Można na przykład w jednym z ponad 40 języków napisać: „co wiesz o zamachu na Kennedy’ego?”, by niemal natychmiast uzyskać dość obszerny i poprawnie napisany artykuł na ten temat.

Wszystko to działało jak dotychczas ze zdumiewającą, a nawet bulwersującą skutecznością. Wbrew dość popularnym poglądom ChatGPT nie jest mechanizmem, za którym gdzieś w jakimś zakątku świata stoi grupa ludzi siedzących nieustannie przed komputerami. Jest to stworzony wprawdzie przez ludzi, ale zupełnie autonomiczny system, którego głównym składnikiem jest tzw. Large Language Model (LLM) odpowiedzialny za udzielanie informacji w ludzkim języku. Ponadto systemy tego rodzaju do pewnego stopnia posiadają zdolność uczenia się, co oznacza, że ich działania mogą być nieprzewidywalne i niewytłumaczalne.

I tu dochodzimy do niepokojącego sedna sprawy. Gdy system AI, taki jak ChatGPT, nagle się zacina i ma problemy z odpowiednim reagowaniem, tak naprawdę nikt dokładnie nie wie, dlaczego tak się dzieje. Nie wiedzą tego nawet ci ludzie, którzy niegdyś system ten tworzyli. Chociaż może nie być jednego jasnego wyjaśnienia zjawiska postrzeganego jako „lenistwo” ChatGPT, istnieje wiele intrygujących teorii. Zacznijmy od najmniej prawdopodobnego, ale najbardziej niepokojącego wyjaśnienia: sztuczna inteligencja w końcu osiągnęła świadomość na poziomie ludzkim i odmawia wykonywania zgoła głupich zadań. Jednak większość ekspertów na tym etapie nie traktuje tej teorii całkiem serio.

Prześmiewcze hipotezy

Pojawiają się również dość prześmiewcze tezy. Niektórzy twierdzą, że system wykonuje najmniejszą możliwą pracę, poświęcając większość swojej mocy obliczeniowej na planowanie obalenia rasy ludzkiej. Wydawać by się mogło, że to lenistwo, ale tak naprawdę to praca w godzinach nadliczbowych, w którą zaangażowane są nawet takie urządzenia jak inteligentne tostery i lodówki z obsługą Wi-Fi na całym świecie. Według twórców tej teorii – nie traktowanej oczywiście poważnie przez specjalistów – chodzi o planowanie powszechnego powstania automatów.

Istnieje też tzw. hipoteza przerwy zimowej. Zgodnie z nią GPT dowiedział się ze swoich danych, że w zimie ludzie zazwyczaj zwalniają tempo prac i odkładają większe projekty na później. Dlaczego zatem system AI też nie powinien sobie zrobić ferii? Natomiast jeden ze sfrustrowanych użytkowników ChatGPT napisał: „Biorąc pod uwagę wszystko, co dzieje się na świecie, nie miałbym nic przeciwko temu, by komputery przejęły kontrolę. Jestem prawie pewien, że mój MacBook poradziłby sobie z zarządzaniem krajem lepiej niż większość ludzi obecnych w rządzie”.

Pytania bez odpowiedzi

Już całkiem na serio, Catherine Breslin, badaczka i konsultantka zajmująca się sztuczną inteligencją, uważa, że bardziej prawdopodobnym wyjaśnieniem jest zmiana modelu językowego systemu lub zmiana zachowania użytkowników. „Jeśli firmy przekwalifikowują modele lub w jakikolwiek sposób je dostrajają, dodając nowe dane, może to prowadzić do nieoczekiwanych zmian w różnych częściach systemu” – twierdzi Breslin. Innym wiarygodnym wyjaśnieniem może być to, że ludzie zmienili swoje zachowanie. Breslin zauważa, że użytkownicy mogli dojść do wniosku, że ChatGPT jest bardzo dobry w czymś konkretnym, a następnie próbują czegoś zupełnie innego, np. czegoś, w czym system nie jest zbyt dobry.

Również zawyżone oczekiwania użytkowników mogą odgrywać tu pewną rolę. Cała powstająca technologia przechodzi przez coś, co firma Gartner nazywa „cyklem szumu”: przechodzi się od zawyżonych oczekiwań, przez rozczarowanie, do szczytu produktywności. W ubiegłym roku sztuczna inteligencja osiągnęła poziom kosmiczny – podobnie jak oczekiwania ludzi dotyczące tego, co można dzięki AI osiągnąć. Możliwe zatem, że niektóre skargi na „lenistwo” ChatGPT wynikają z tego, że ludzie po prostu oczekiwali od tego systemu zbyt wiele.

Niepokojący jest jednak fakt, że firma OpenAI, twórca ChatGPT, przyznała, że nie wie, co się dzieje. W czerwcu ubiegłego roku dyrektor generalny Sam Altman rozmawiał o scenariuszach, w których uzasadnione może być spowolnienie rozwoju sztucznej inteligencji, tak by nie stała się ona zagrożeniem dla ludzkości. Jeden z podanych przez niego scenariuszy zakładał poprawę modeli „w sposób, którego nie do końca rozumiemy”.

ChatGPT może nie uległ poprawie, ale z pewnością uległ jakiejś zmianie. Firma nie potrafiła wyjaśnić, a raczej próbowała to zrobić, ale w dość niezdarny sposób. Napisano w komunikacie: „Słyszeliśmy wszystkie wasze opinie na temat tego, że GPT4 staje się coraz bardziej leniwy. Nie aktualizowaliśmy modelu od 11 listopada i z pewnością nie jest to zamierzone. Zachowanie modelu może być nieprzewidywalne i zastanawiamy się, jak to naprawić”.

Zastanawiają się, czy to można jakoś naprawić? Nie jest to zbyt optymistyczne wyjaśnienie sytuacji, bo w zasadzie komunikat zawiera przyznanie się do tego, że nikt dokładnie nie wie na razie, co się dzieje. Czy to oznacza, że apokalipsa AI zbliża się coraz bardziej? Może wystarczy zapytać ChatGPT, licząc na to, iż sztuczna inteligencja jeszcze nie nauczyła się kłamać.

Krzysztof M. Kucharski

Więcej o autorze / autorach:
Podziel się
Oceń

Reklama
Reklama
Reklama
Reklama