Ostatnie tygodnie przyniosły niezwykle intensywną i czasami burzliwą dyskusję na temat sztucznej inteligencji (AI). Genezą nagłego zainteresowania tym zjawiskiem było pojawienie się programu ChatGPT, który posiada dość zdumiewające zdolności i sprawia czasami wrażenie, iż jest elektronicznym mózgiem, zdolnym do samodzielnego myślenia. Jednak tak naprawdę nim nie jest…
Papuga na sterydach
Na początek trzeba określić, czym sztuczna inteligencja jest, a czym nie jest. Wbrew temu, co się powszechnie sądzi, sztuczna inteligencja nie polega na budowie mechanizmów czy też urządzeń, które są czymś w rodzaju elektronicznego umysłu, zdolnego do naśladowania w pełni człowieka. Wszystkie jak dotąd automaty tego rodzaju są całkowicie zależne od ludzi, ponieważ bez odpowiedniego procesu „nauczania” maszyna nie jest w stanie niczego zrobić.
Na poziomie bardzo podstawowym, zwykły bankomat też jest urządzeniem AI, tyle że bardzo jednostronnym, zdolnym do wykonywania tylko niewielkiej liczby ściśle określonych operacji. Jeśli ktoś korzysta z Alexy, Siri lub innego systemu rozpoznawania głosu, używa sztucznej inteligencji. Natomiast coś takiego jak ChatGPT to w zasadzie papuga na sterydach obdarzona ogromną ilością przeróżnych danych. Jest naśladowcą i może powtarzać usłyszane słowa z pewnym zrozumieniem ich kontekstu, ale bez pełnego poczucia ich znaczenia.
Kiedy ktoś poleca takiemu urządzeniu napisanie eseju na jakiś temat, rezultatem nie jest oryginalny tekst. Jest to raczej „wywar” z milionów artykułów napisanych przez setki tysięcy ludzi. Nie można zatem autorstwa tego eseju przypisywać elektronicznej inteligencji. A w zasadzie nikomu nie można go przypisać, gdyż materiał źródłowy stanowi mieszankę informacji z nieogarnionego zbioru danych.
Kluczem do tego wszystkiego jest proces szkolenia maszynowego, w ramach którego mechanizm AI otrzymuje ogromną ilość danych, czasami opatrzonych etykietami wyjaśniającymi, czym one są. Maszyna dostaje też odpowiedni zestaw skomplikowanych instrukcji. Przykładem takiej instrukcji może być zdanie „znajdź wszystkie obrazy zawierające twarze” lub „podziel te dźwięki na kategorie”. Program będzie szukał wzorców w danych, które otrzymał, by zaprezentować wyniki. Ponieważ zwykle są to urządzenia bardzo zaawansowane technicznie, reagowanie na instrukcje często przynosi niemal natychmiastowe rezultaty.
Imponujące możliwości
We współczesnych urządzeniach AI być może najbardziej imponujące są ich zdolności językowe. Jest to wynik stosowania tzw. dużych modeli językowych (Large Language Models), które są w stanie analizować nie tylko pojedyncze słowa, ale całe zdania. Potrafią one porównywać użycie słów i wyrażeń w danym fragmencie z innymi przykładami. Korzystając z miliardów takich porównań między słowami i frazami, sztuczna inteligencja jest w stanie odczytać pytanie oraz wygenerować odpowiedź niezwykle szybko i z wielką precyzją. Niesamowite w dużych modelach językowych jest to, że mogą one uczyć się zasad gramatyki i samodzielnie wypracowywać znaczenia słów, bez pomocy człowieka.
Opiera się to wszystko na ogromnej mocy obliczeniowej. Pozwala ona sztucznej inteligencji zapamiętywać wielkie liczby słów – pojedynczo, w grupach, w zdaniach i w różnych kontekstach – a następnie czytać je i porównywać, w jaki sposób są używane. A wszystko to w ułamku sekundy.
Inną zdolnością niektórych systemów AI jest generacja obrazów graficznych na podstawie podawanych przez ludzi opisów, odczuć, lokalizacji geograficznych, itd. Takie programy jak Dall-E 2 czy Artbreeder „malują” lub „szkicują”, tworząc zupełnie nowe dzieła, które jednak – podobnie jak w przypadku tekstu – są tworzone na podstawie milionów przykładów już istniejących grafik i obrazów. W związku z tym niejasne jest na razie to, kto może lub powinien mieć prawa autorskie do tego rodzaju twórczości.
W sumie systemy AI, czyli informatyczne papugi na sterydach, prędzej czy później znajdą powszechne i zróżnicowane zastosowanie, co wydaje się nieuniknione. Niektóre z tych zastosowań będą z pewnością pożyteczne i pożądane, zaś inne budzą ogromne kontrowersje i zwiastują skomplikowane problemy.
Przykłady na „nie”
Kelly McKernan, ilustratorka i malarka ze stanu Tennessee, twierdzi, że „poczuła się niedobrze”, kiedy odkryła, że jej grafika została wykorzystana do trenowania systemu sztucznej inteligencji. Ciekawość skłoniła ją do wpisania swojego nazwiska na stronie internetowej Have I Been Trained, która przeszukuje zbiór danych zasilający generatory obrazów przy pomocy sztucznej inteligencji. Odkryła, że przesłano tam ponad 50 jej dzieł. – Nagle wszystkie te obrazy, z którymi miałam osobisty związek, nabrały nowego znaczenia; zmieniło to mój stosunek do tych dzieł. Czułam się okradziona. Jeśli ktoś może wpisać moje nazwisko w narzędziu AI, by zrobić okładkę książki i mnie do tego bez mojej wiedzy zatrudnić, wpływa to na moją karierę i może mieć podobne skutki w przypadku wielu innych osób.
Wraz z rysowniczką Sarą Anderson i ilustratorką Karlą Ortiz, McKernan złożyła pozew przeciwko Stability AI, firmie stojącej za Stable Diffusion, Midjourney i DeviantArt, czyli internetową społecznością artystyczną z własnym generatorem AI o nazwie DreamUp. W swojej akcji nie jest osamotniona. Na początku tego roku znana firma Getty Images również złożyła pozew przeciwko Stability AI, twierdząc, że bezprawnie skopiowano i przetworzono 12 milionów zdjęć bez pozwolenia.
Rzecznik Stability AI twierdzi, że nie jest w stanie komentować toczących się postępowań sądowych, ale w grudniu 2022 roku dyrektor naczelny Emad Mostaque napisał w serwisie Twitter, że przyszłe modele AI będą „w pełni licencjonowane”. Nie wyjaśnił jednak, w jaki sposób licencje tego rodzaju miałyby być uzyskiwane od tysięcy autorów.
Podobne zjawiska występują w świecie muzyki i filmu. Powstały już pierwsze utwory muzyczne, które nie są dziełem żadnego człowieka, ale zostały stworzone na podstawie ogromnej liczby piosenek i kompozycji dodanych do baz danych, z których korzystają mechanizmy AI. Istnieje też realna możliwość, że wkrótce pojawi się film fabularny wykreowany całkowicie przez sztuczną inteligencję. Na domiar złego, w filmie takim mogą występować znani aktorzy, którzy nigdy nie stanęli przed kamerą ani też nie znają reżysera obrazu, gdyż takiego w ogóle nie będzie. Rodzi to ogromne problemy natury prawnej i z pewnością spowoduje wiele procesów sądowych.
Niepokojące przykłady zastosowania AI pojawiają się nawet w programach oferowanych przez renomowane firmy. Czołowy fotograf ostrzegł ostatnio, że najnowsze osiągnięcia w oprogramowaniu do edycji zdjęć mogą stworzyć „alternatywną, fałszywą rzeczywistość” przy pomocy sztucznej inteligencji. Twórcy powszechnie znanego programu Photoshop niedawno wprowadzili coś, co nazywa się „generatywnym wypełnianiem” obrazu (generative fill). Funkcja ta pozwala na uzupełnienie dowolnej części zdjęcia lub grafiki elementem, który zaproponuje nam AI.
Adobe, firma stojąca za Photoshopem, twierdzi, że chce w ten sposób dać użytkownikom nowe możliwości, ale w sumie – jak twierdzą krytycy – jest to narzędzie zachęcające do tworzenia graficznych oszustw. Działa to niestety bardzo skutecznie, o czym przekonał się niżej podpisany, dodając przy pomocy generative fill – w drodze eksperymentu – kilka motywów do rodzinnego zdjęcia. Oczywiście motywów tych nie było w oryginale.
Inną demonstracją negatywnych zdolności AI jest fakt, że w parlamencie Walii polityk wygłosił przemówienie wygenerowane w całości przez ChatGPT. Konserwatysta Tom Giffard wykorzystał ten mechanizm do napisania przemówienia gratulującego Walii zdobycia Pucharu Świata w rzucaniu lotkami (darts) do tarczy. Przyznał, że przemówienie zakończyło się trochę dziwnie, gdyż zawierało slogan „niech żyją rzutki”. Giffard powiedział BBC Wales, że wygłosił to przemówienie, „by pokazać, jak zaawansowana staje się technologia i jak może być niebezpieczna”. Niestety jego pokaz istotnie wykazał, że istnieje realne niebezpieczeństwo wynikające z tekstowych zdolności ChatGPT.
Przykłady na „tak”
Sztuczna inteligencja coraz częściej znajduje nowatorskie zastosowania w kluczowych dziedzinach, np. w medycynie. Badania przeprowadzone w Szwecji sugerują, że sztuczna inteligencja może „bezpiecznie” odczytywać tzw. obrazy (skany) przesiewowe w diagnostyce raka piersi. Naukowcy z Uniwersytetu w Lund odkryli, że diagnostyka wspomagana komputerowo może wykryć raka w „podobnym tempie” jak dwóch dobrze wykwalifikowanych radiologów. Badanie, opublikowane w Lancet Oncology, objęło ponad 80 tysięcy kobiet ze Szwecji, których średnia wieku wynosiła 54 lata.
Połowa skanów została oceniona przez dwóch radiologów, podczas gdy drugą połowę poddano analizie przez „narzędzie przesiewowe”, obsługiwane przez sztuczną inteligencję. W sumie u 244 kobiet z badań wspieranych przez sztuczną inteligencję wykryto raka, w porównaniu z 203 kobietami, u których nowotwór został wykryty przez radiologów. Ponadto użycie sztucznej inteligencji nie wygenerowało większej liczby „fałszywych alarmów”, czyli błędnych diagnoz.
Doktor Katharine Halliday, przewodnicząca Royal College of Radiologists, powiedziała: – Sztuczna inteligencja jest bardzo obiecująca i może oszczędzić czas specjalistom, maksymalizując naszą wydajność, wspierając podejmowanie decyzji oraz pomagając zidentyfikować najpilniejsze przypadki.
Pozytywnym przykładem działania AI, choć z zupełnie innej dziedziny, jest jej zastosowanie w policyjnym radiowozie wyposażonym w kamerę szpiegowską. Urządzenie to wykorzystuje sztuczną inteligencję do wykrywania osób korzystających z telefonów komórkowych za kierownicą lub jeżdżących bez zapiętych pasów bezpieczeństwa. Angielska policja w ciągu tylko jednego tygodnia zidentyfikowała w ten sposób 86 kierowców podejrzanych o używanie telefonu i 273 kierowców lub pasażerów podejrzanych o niezapinanie pasów bezpieczeństwa. Zidentyfikowane przez AI wykroczenia są dwukrotnie sprawdzane przez ludzi, zanim zostaną przekazane policji do przeglądu.
A skoro już o samochodach mowa, to nie sposób nie wspomnieć o pojazdach samojezdnych, które są od dziesięcioleci tematem dyskusji na temat sztucznej inteligencji. Tak zwana jazda autonomiczna jest możliwa w przypadku samochodów wyposażonych w odpowiednie kamery, radary i lasery. Sztuczna inteligencja wykorzystuje dane z czujników do identyfikowania obiektów i ustalania, czy się poruszają, a jeśli tak, to jakiego rodzaju poruszającym się obiektem jest inny samochód, rower, pieszy lub coś innego. Samochody autonomiczne przejechały już miliony mil po prawdziwych drogach i staną się niemal na pewno powszechnie stosowaną technologią.
Niejasna przyszłość
Specjaliści są zdania, że za około dziesięć lat pojawią się chatboty, które będą działać jako eksperci w dowolnej dziedzinie. Jedno z najnowszych dokonań w dziedzinie sztucznej inteligencji to tzw. multimodalizm. Pozwala on urządzeniu AI przyglądać się różnym typom danych – takim jak obrazy, tekst, audio lub wideo – i odkrywać nowe powiązania między nimi. Idea pojedynczego modelu sztucznej inteligencji zdolnego do przetwarzania dowolnego rodzaju danych, a tym samym wykonywania dowolnego zadania, od tłumaczenia między językami po projektowanie nowych leków, jest znana jako sztuczna inteligencja ogólna (AGI).
Dla niektórych jest to ostateczny cel wszystkich badań nad sztuczną inteligencją, ale dla innych jest to ścieżka prosto do wszystkich dystopii rodem z science fiction. Ci drudzy wyrażają obawy, że uwolnimy sztuczną inteligencję tak daleko poza poziom naszego rozumienia, że nie będziemy już w stanie jej kontrolować. Na razie możemy poprosić sztuczną inteligencję o stworzenie fotograficznego obrazu czegoś, co nigdy się nie wydarzyło – na przykład zdjęcia osoby spacerującej po powierzchni Marsa. Albo polecić wygenerowanie czyjegoś portretu w stylu Pabla Picassa. Problem w tym, że prędzej czy później mechanizmy AI będą zdolne do kreowania znacznie bardziej niebezpiecznych fikcji.
Andrzej Heyduk