Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
sobota, 28 września 2024 20:24
Reklama KD Market
Reklama

Ludzka inteligencja w komputerze?

Przed wieloma laty słynny brytyjski logik i matematyk Alan Turing opracował niezwykły, ale w sumie bardzo prosty test na to, czy maszyna (komputer) może być obdarzona ludzką inteligencją. Test ten opublikował w swojej pracy z 1950 roku pt. Computing Machinery and Intelligence. Otwiera ją następującymi słowami: „Proponuję rozważyć pytanie – czy maszyny mogą myśleć?”

Gra naśladowcza

Ponieważ „myślenie” jest trudne do zdefiniowania, Turing zdecydował się zastąpić pytanie innym, które wyrazić można w stosunkowo jednoznacznych słowach. Opisuje nową formę problemu w postaci trzyosobowej gry zwanej „grą naśladowczą” (imitation game). Na czym ona polega? Jeden z uczestników tej gry (tzw. sędzia) zadaje pytania mężczyźnie i kobiecie. Każda z tych osób znajduje się w innym pomieszczeniu. Pytania mają na celu ustalenie prawidłowej płci obu graczy.

W 1926 roku Alan Mathison Turing rozpoczął naukę w Sherborne School w Sherborne. Potem studiował matematykę na King’s College w Cambridge od 1931 do 1934 roku. Studia ukończył z wyróżnieniem. W 1935 roku, mając zaledwie 22 lata, obronił pracę doktorską. Przebywając na Cambridge, Turing napisał inną ważną pracę matematyczną pt. On Computable Numbers. Przedstawił w niej abstrakcyjną maszynę, która była w stanie wykonywać zaprogramowaną matematyczną operację, czyli algorytm. Maszyna mogła wykonać tylko jeden algorytm, na przykład mogła podnieść liczbę do kwadratu, podzielić, dodać czy odjąć. Liczby miały być do niej wprowadzane. W ten sposób narodziło się zbiorcze miano „maszyna Turinga”, nadawane urządzeniom przeznaczonym do wykonywania algorytmów.

W dalszej części wspomnianego na początku artykułu Turing proponuje alternatywne sformułowanie testu, w którym sędzia rozmawia tylko z komputerem i człowiekiem. Test zostaje uznany za zakończony sukcesem wtedy, gdy prowadzący tę konwersację człowiek nie jest w stanie ustalić ponad wszelką wątpliwość, czy rozmawia z maszyną, czy też człowiekiem. W takiej formule jeszcze żadne urządzenie stworzone przez człowieka nie zdało tego testu. Prowadzono jednak liczne próby.

W roku 1966 powstał program o nazwie ELIZA, który był dziełem Josepha Weizenbauma, niemiecko-amerykańskiego profesora informatyki na MIT. Jest on uznawany za jednego z ojców współczesnej dziedziny nauki dotyczącej tzw. sztucznej inteligencji. ELIZA powstała za sprawą skryptu o nazwie DOCTOR. Skrypt ten miał symulować jednego z pionierów psychoanalizy humanistycznej, Carla R. Rogersa. Polegało to głównie na „papugowaniu” słów rozmówcy w nieco przetworzonej formie gramatycznej. Intencja była taka, by skutecznie sugerować ludziom, że mają do czynienia z żywą osobą. W sumie jednak rozmowa z ELIZĄ zawsze wzbudzała różne wątpliwości i stosunkowo łatwo było szybko się przekonać, iż chodzi tu o automat, a nie o człowieka.

Znacznie bardziej zaawansowany był CleverBot, który jest tak zwanym chatbotem, czyli „maszyną do mówienia”. Ta aplikacja internetowa powstała w 1997 roku, a stworzył ją Rollo Carpenter. Twórca i jego współpracownicy odbyli z CleverBotem w pierwszej dekadzie jego działania kilkanaście tysięcy rozmów. W przeciwieństwie do innych chatbotów, odpowiedzi CleverBota nie są z góry zaprogramowane. „Uczy się” on na podstawie danych uzyskanych w trakcie prowadzenia dialogów z ludźmi. Test w Indiach w 2011 roku pozwolił CleverBotowi skutecznie oszukać ponad 59 proc. respondentów. Formalnie jednak nie przeszedł on testu Turinga. System musi oszukać 70 procent osób, by móc spełnić warunki zdefiniowane przez brytyjskiego naukowca.

Maszyny pozostają w tyle

Wszystko to nagle zagościło ponownie jako temat w mediach z powodu dziwnych wydarzeń, do jakich doszło w koncernie Google. Ostatnio został tam zwolniony z pracy inżynier Blake Lemoine. Podobno Lemoine utracił pracę, ponieważ twierdził, że chatbot LaMDA jest „świadomy”, a w związku z tym obdarzony jest ludzką inteligencją. Szefowie Google twierdzą jednak, że do zwolnienia nie doszło z tego powodu, lecz dlatego, że Blake naruszył zasady poufności obowiązujące w firmie. Podobno zaprosił prawnika, który miał ocenić potencjalne prawa maszyny LaMDA, które mają wynikać z faktu, iż jest to urządzenie „w pełni ludzkie”.

Rzecznik Google powiedział: – Jeśli pracownik ma obawy dotyczące naszej pracy, tak jak Blake, dokładnie się temu przyglądamy. Stwierdziliśmy, że jego twierdzenia, iż ​​LaMDA jest maszyną świadomą, są całkowicie bezpodstawne i pracowaliśmy z nim nad wyjaśnieniem tego problemu przez wiele miesięcy. Dyskusje te były częścią naszej otwartej kultury, która pomaga nam wprowadzać innowacje w sposób odpowiedzialny. Godne ubolewania jest to, że ​​mimo długiego zaangażowania w ten temat, Blake postanowił uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach.

Wielu ekspertów z Google oraz naukowców podało w wątpliwość to, czy LaMDA lub jakikolwiek inny istniejący chatbot posiada świadomość porównywalną do ludzkiej. Modele językowe uczą się matematycznych relacji między słowami i są dobre w naśladowaniu ludzkiego języka, ale bez prawdziwego zrozumienia tego, co mówią. Żaden z nich nie jest naprawdę inteligentny, przynajmniej nie w sensie zdefiniowanym przez Turinga.

Zastanawiający jest jednak fakt, że Lemoine z jakichś przyczyn doszedł do wniosku, iż maszyna, z którą miał do czynienia, zdradzała cechy ludzkiej inteligencji. W życiu codziennym często mówimy do urządzeń elektronicznych, np. tzw. asystentów głosowych, ale raczej nie jesteśmy skłonni do obdarzania ich ludzkimi cechami. Ponadto naukowcy twierdzą, że skuteczna symulacja ludzkiego umysłu przez maszynę musiałaby również zdradzać spontanicznie brak pewnych umiejętności. Podejrzane jest na przykład zbyt szybkie obliczenie wyniku trudnego mnożenia.

Zgodnie z tzw. paradoksem Moraveca wysokopoziomowe rozumowanie wymaga niewielkiej mocy obliczeniowej, natomiast niskopoziomowa percepcja i zdolności motoryczne wymagają mocy olbrzymiej. Symulacja czteroletniego dziecka może być trudniejsza w wykonaniu niż na przykład prawnika. Najstarsze ewolucyjnie umiejętności i korzystanie z nich jest w większości nieświadome, a ludzie wykonują te czynności bez wysiłku. Maszyny na razie pozostają w tyle.

Andrzej Heyduk


Podziel się
Oceń

Reklama
Reklama
Reklama