Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama
czwartek, 14 listopada 2024 23:43
Reklama KD Market

Sztuczna inteligencja – niepokojąca moc

Sztuczna inteligencja – niepokojąca moc
(fot. Adobe Stock)

Media od pewnego czasu pełne są doniesień o sztucznej inteligencji (AI), co jest zrozumiałe, ponieważ postępy w tej dziedzinie są raptowne, zdumiewające, a jednocześnie niepokojące. Dotychczas najwięcej uwagi poświęcano propozycji firmy OpenAI, zwanej ChatGPT. 30 listopada ubiegłego roku udostępniono internautom ten niezwykły produkt i w ciągu pierwszych pięciu dni przyciągnął on milion użytkowników. Przez następne dwa miesiące liczba ta urosła aż stukrotnie…

To jeszcze nic

Jednak entuzjaści twierdzą, że to jeszcze nic. Już za kilkanaście miesięcy wszyscy mamy poczuć moc AGI, co jest skrótem od Artificial General Intelligence. Problem w tym, że na razie nikt nie potrafi tego terminu dobrze zdefiniować. Gdyby zapytać o definicję stu ekspertów, daliby sto różnych odpowiedzi. Ogólnie jednak chodzi o to, że AGI ma przewyższać ludzi w najbardziej wartościowych ekonomicznie i egzystencjalnie zadaniach.

Badacze koncernu Google przygotowali publikację naukową, w której piszą, że AGI musi być zarówno uniwersalna (jak ludzki umysł), jak i wysoce wydajna. Po drugie, ma nie tylko wykonywać zadania, ale także uczyć się, oceniać swoje wyniki i prosić o pomoc w razie potrzeby. Sam Altman, szef OpenAI, dodaje: – AGI będzie się cechować taką samą inteligencją jak przeciętny człowiek, którego można zatrudnić jako współpracownika.

Już w latach 70. XX wieku Marvin Minsky, amerykański kognitywista i informatyk, współzałożyciel słynnego laboratorium AI w Massachusetts Institute of Technology (MIT), głosił, że najdalej za kilka lat możliwe będzie zbudowanie maszyny posiadającej inteligencję przeciętnego człowieka. Zacznie się ona uczyć z fantastyczną prędkością i w ciągu kilku miesięcy stanie się geniuszem, a po upływie kolejnych lat jej możliwości będą nieobliczalne. Nie był w swoich poglądach odosobniony.

Narodziny sztucznej inteligencji

„Ojcami założycielami” AI byli: Minsky, John McCarthy, Alan Turing, Allen Newell i Herbert A. Simon. McCarthy, Minsky, Nathaniel Rochester i Claude E. Shannon ukuli termin „sztuczna inteligencja” w pracy, którą napisali na słynną konferencję w Dartmouth latem 1956 roku. Konferencja ta zapoczątkowała rozwój sztucznej inteligencji jako dziedziny nauki. W 1979 McCarthy napisał artykuł zatytułowany „Przypisywanie cech umysłowych maszynom”.

Stwierdzał w nim: „Można powiedzieć, że maszyny tak proste jak termostaty posiadają przekonania, a posiadanie przekonań wydaje się być cechą większości maszyn zdolnych do rozwiązywania problemów”. W 1980 roku filozof John Searle ostro skrytykował te poglądy, wyrażając opinię, że maszyny nie mogą mieć przekonań, gdyż nie posiadają świadomości własnego istnienia i brakuje im „intencjonalności”.

Niżej podpisany w latach 80., jako doktorant na Wydziale Filozoficznym University of Illinois, miał okazję wysłuchać wykładu McCarthy’ego oraz spotkać się z nim w mniej formalnych warunkach (przy piwie i słonych paluszkach). Wydawało mi się wtedy, i nadal jestem o tym przekonany, że ci niezwykle utalentowani naukowcy cierpieli z powodu jednej słabości – hurraoptymizmu.

Wydawało się im, że nadejście sztucznej inteligencji to sprawa miesięcy, mimo że nie mieli wtedy do dyspozycji współczesnej elektroniki, nie było jeszcze odpowiednich postępów w dziedzinie komputeryzacji, etc. Ich prognostyki nie sprawdziły się, a ich dziedzina, czyli sztuczna inteligencja, trafiła nie tyle do kosza, co do przegródki z nalepką „przyszłościowe sny”. Nie zmienia to jednak faktu, że to właśnie Minsky i McCarthy słusznie zwiastowali nadejście ery sztucznej inteligencji, tyle że sami tej rewolucji nie doczekali.

Marsz w stronę przełomu

Pod koniec pierwszej dekady XXI wieku zaczęły powstawać firmy, które odważyły się głośno marzyć o AGI. W 2010 roku kilku badaczy z Wielkiej Brytanii założyło tzw. start-up o nazwie DeepMind. Jego osiągnięcia okazały się na tyle obiecujące, że cztery lata później Google kupił tę wciąż rozkręcającą się firmę za pół miliarda dolarów, by stała się jego częścią. Trzy lata później Google przejął inny start-up, założony przez prof. Geoffreya Hintona, wybitnego brytyjskiego informatyka i psychologa. Konikiem Hintona były tzw. sztuczne sieci neuronowe, budowane na wzór mózgu, choć niewielu ludzi wierzyło wówczas, że coś takiego może zakończyć się powodzeniem.

W 2016 roku program o nazwie AlphaGo, stworzony przez DeepMind, zrobił coś, co wydawało się wówczas niemożliwe a przyćmiło nawet słynne zwycięstwo potężnego komputera DeepBlue IBM nad szachowym mistrzem świata Garrym Kasparowem. Maszyna wykorzystująca program AlphaGo wygrała z człowiekiem w chińską grę go, która przewyższa stopniem trudności szachy. Podstawą tego programu były sztuczne sieci neuronowe, które początkowo uczyły się na danych z tysięcy gier ludzkich zawodników, ale potem rozgrywały miliony partii już same ze sobą. Dzięki temu program stał się kreatywny, wykazując się zaskakującymi zdolnościami taktycznymi. Kolejne wersje programu w ogóle nie trenowały na „ludzkich danych”, gdyż nabywały wiedzę metodą prób i błędów.

Dlaczego taki sukces był możliwy? Zdaniem szefa DeepMind, Demisa Hassabisa, kluczowe było to, że maszyna przestała być ograniczana przez horyzonty ludzkiej wiedzy. Jednak wszystko to działo się przed powstaniem firmy OpenAI, której założycielami była grupa złożona z jedenastu ludzi. Wśród nich znalazł się Ilia Sutskever, który odegrał kluczową rolę w rozwoju tego przedsięwzięcia.

Urodzony w ZSRR informatyk uchodzi za wybitnego badacza i wizjonera. Kiedy miał pięć lat, jego rodzina wyemigrowała do Izraela, skąd później przeniosła się do Kanady. To w dużym stopniu jego pomysły sprawiły, że w 2022 roku OpenAI zadziwiło świat, udostępniając ChatGPT. Program ten stał się w krótkim czasie sensacją, ponieważ po raz pierwszy powstał sztuczny twór, z którym można „porozmawiać” tak jak z innym człowiekiem. Ale nie całkiem.

Już w latach 80. liczni językoznawcy i filozofowie, tacy np. jak Noam Chomsky i wspomniany już Searle, ostrzegali, że piewcy rychłego nadejścia sztucznej inteligencji nie doceniają w pełni złożoności ludzkiej inteligencji. A w szczególności niesamowitej inwencji, z jaką ludzie używają języka, np. stosując metafory, przenośnie, żarty, treści domyślne, itd. Kiedy na horyzoncie pojawił się ChatGPT, od razu więc pojawiło się pytanie, czy oto zaczęła się właśnie rewolucja.

Zdania na ten temat są mocno podzielone. Wielu ekspertów uważa, że na razie daliśmy się uwieść programowi, który kieruje się wyłącznie prawdopodobieństwem, z jakim jeden wyraz następuje po drugim. Sceptycy nazywają algorytmy oparte na sztucznych sieciach neuronowych „nowoczesnymi papugami”. Inni twierdzą jednak, że tzw. duże modele językowe wykonują zadania, do których nie zostały wyszkolone, a więc potrafią samodzielnie „wytwarzać umiejętności”.

Mimo tych różnic zdań i niezwykłych dokonań sztucznej inteligencji, wielu ekspertów po obu stronach tej dyskusji wciąż podpisuje się pod opinią, że przeskok od dzisiejszego stanu AI do systemów dorównujących umysłowi człowieka szybko nie nastąpi. W tym sensie, zdaniem specjalistów ostrożnych w ocenach, niewiele się zmieniło od czasów Minsky’ego i McCarthy’ego.

Czym jest AGI?

W związku z tym powstaje pytanie, czym AGI dokładnie jest i w jaki sposób się nam objawi. Należy spodziewać się dalszego technologicznego wyścigu, w którym największą rolę odgrywa około dziesięciu firm, w większości ze Stanów Zjednoczonych. Ścisłą czołówkę stanowią OpenAI i Google DeepMind. Do tych liderów chce również dołączyć Meta AI firmy X (Facebook), która w tym roku zamówiła rekordową liczbę procesorów potrzebnych do trenowania kolejnych wersji dużego modelu językowego LLaMA (Large Language Model Meta AI).

Ogólna sztuczna inteligencja opiera się na założeniu, że pewne maszyny mogą posiadać wszystkie atrybuty dostępne umysłowi ludzkiemu. Searle zdefiniował to pojęcie w następujący sposób: „Według koncepcji ogólnej sztucznej inteligencji, komputer nie jest jedynie narzędziem do studiowania działania umysłu, lecz jest w rzeczywistości umysłem”. Jednak, zdaniem Searle’a, osiągnięcie czegoś takiego jest niemożliwe.

O ile optymiści są przekonani, że AGI to bliska przyszłość, niektórzy eksperci i badacze wciąż twierdzą, iż nie należy się niczego takiego spodziewać przez następne dekady, a może nawet stulecia. Totalni sceptycy uważają – tak jak przed laty Searle – że jest to w ogóle niemożliwe. Tak czy inaczej, pojawienie się AGI nie będzie wydarzeniem binarnym. Nie będzie tak, że pewnego dnia jej nie ma, a następnego jest. ChatGPT również nie wziął się znikąd, tylko jest wynikiem wielu lat pracy.

Elektroniczna rewolucja

Pojawienie się AGI będzie rewolucyjnym przełomem, umożliwiającym wykonywanie przez maszyny różnych zadań intelektualnych na poziomie ludzkim i wyższym. AGI różni się od obecnych systemów AI zdolnością do ogólnej adaptacji i uczenia się w różnych dziedzinach. Nie będzie projektowana do konkretnych zadań, gdyż ma posiadać zdolność do nabywania wiedzy w praktycznie dowolnej dziedzinie.

Ogólna sztuczna inteligencja będzie rozumieć, uczyć się, a także stosować zdobytą wiedzę w różnych kontekstach, podobnie jak robią to ludzie. W tym sensie AI i AGI to dwie fundamentalnie różne koncepcje. AI w swojej obecnej formie koncentruje się na specjalistycznych zadaniach i jest zaprojektowana do wykonywania konkretnych funkcji, takich jak rozpoznawanie mowy, analiza obrazów czy gra w szachy. AGI aspiruje do osiągnięcia poziomu inteligencji człowieka.

Prostym przykładem różnic między AI i AGI może być popularne urządzenie Alexa firmy Amazon, które w swej obecnej postaci jest asystentem głosowym. Alexie można zlecać wykonywanie wielu zadań, ale w bardzo ściśle zdefiniowanym zakresie – kontrolowanie oświetlenia, generowania raportów o pogodzie, uzyskiwanie danych encyklopedycznych, itd. Gdyby Alexa była urządzeniem AGI, można byłoby z nią normalnie rozmawiać, pytać o poglądy na jakieś tematy, sprzeczać się z nią, itd. Takie wcielenie tego urządzenia mogłoby też z premedytacją kłamać, zdradzać emocje i obrażać się.

Zagrożenie dla ludzkości?

Czy tego typu maszyny mogą się zacząć pojawiać już za kilkanaście miesięcy, jak niektórzy zapowiadają? Trudno przewidzieć, ale 18 września ubiegłego roku internetową społeczność śledzącą rozwój AI zelektryzował wpis w serwisie X (dawniej Twitter). Autor ukrywający się pod pseudonimem Jimmy Apples zamieścił enigmatyczne stwierdzenie: „AGI has been achieved internally”, co oznacza stworzenie czegoś w jakimś laboratorium, co spełnia kryteria AGI.

Atmosferę podgrzał także szef OpenAI Sam Altman, który 16 listopada minionego roku publicznie stwierdził: – Czterokrotnie w historii firmy, ostatni raz w ciągu poprzednich kilku tygodni, miałem okazję być obecny tam, gdzie w pewnym sensie podnosiliśmy zasłonę ignorancji i przesuwaliśmy granicę odkryć.

Następnego dnia Altman został nagle zwolniony ze swojej funkcji. Jednak tydzień później wrócił na swoje stanowisko i do dziś nie wiadomo dokładnie, co się za tym wszystkim kryje. Trzeba jednak wspomnieć, iż nieco później agencja Reuters doniosła, że grupa badaczy firmy OpenAI napisała list do zarządu, w którym ostrzegano przed odkryciem w dziedzinie AI „mogącym zagrozić ludzkości”.

Ostrzeżenie to ma dotyczyć tajemniczego projektu o nazwie Q*, czyli programu, który nauczył się rzekomo sam rozwiązywać problemy matematyczne na poziomie szkoły podstawowej. Nie wiadomo, czy Q* potrafi tylko to, czy też opanował już logikę i zrozumiał zasady matematyki, co byłoby przełomowym osiągnięciem. Wiadomo natomiast, że w połowie stycznia tego roku Google DeepMind ogłosił, iż jego nowy program AlphaGeometry samodzielnie rozwiązał 25 z 30 zadań zebranych z międzynarodowych olimpiad matematycznych.

W pierwszym wywiadzie po wydarzeniach z listopada Altman nie zaprzeczył istnieniu Q*. W połowie grudnia zapytany, co tak naprawdę wydarzyło się w OpenAI, stwierdził: – W miarę, jak zbliżamy się do sztucznej superinteligencji, wszyscy ludzie w to zaangażowani stają się coraz bardziej zestresowani i zaniepokojeni. Zdajemy sobie sprawę, że stawka jest coraz wyższa. „Jimmy Apples” zareagował tak: „Jesteśmy dalej niż myślisz, to powinno być już oczywiste”. Brzmi to niestety nieco złowrogo.

Andrzej Heyduk

Więcej o autorze / autorach:
Podziel się
Oceń

Reklama
Reklama
Reklama
Reklama