Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama
sobota, 23 listopada 2024 11:36
Reklama KD Market

Czy bać się sztucznej inteligencji?

Czy bać się sztucznej inteligencji?
fot. Depositphotos.com

Sztuczna inteligencja (artificial intelligence – AI) jest dla zwykłego zjadacza chleba tworem skomplikowanym, a w związku z tym często demonizowanym. Od działania dotychczasowych programów i sieci komputerowych odróżnia ją możliwość wykorzystania coraz większych możliwości obliczeniowych komputerów do uczenia się, rozwiązywania problemów, ulepszania systemów lub przewidywania zachowań i działań na podstawie analizy zebranych danych. 

Nie ma jeszcze wypracowanej prawnie definicji, ale generalnie – mamy do czynienia z rzeczywistością, w której wprowadzone dane są analizowane, uaktualnianie i w sposób inteligentny przetwarzane w czasie rzeczywistym na podstawie weryfikacji z uwzględnieniem stale zmieniających się warunków otoczenia. 

Dla tych, którzy obawiają się nadejścia AI, mam złą wiadomość – ona już jest wśród nas. Korzystamy z niej na co dzień przy wyszukiwaniach internetowych, usługach cyfrowych asystentów, tłumaczeniach, tworzeniu inteligentnych systemów zarządzania infrastrukturą, budynkami czy całymi miastami, w samochodach autonomicznych czy przy tworzeniu tekstów, w tym artykułów dziennikarskich. Dziś naprawdę trudno odróżnić czy treść na stronie internetowej została stworzona ręką człowieka czy maszyny. 

Produktem związanym ze sztuczną inteligencją, z którym stykamy się najczęściej, jest komunikator taki jak ChatGPT, wyprodukowany przez spółkę Open AI. W udostępnionej konfiguracji ChatGPT jest zdolny m.in. do pisania programów komputerowych czy samodzielnego tworzenia tekstów na poziomie literackim. Jest też w stanie formułować odpowiedzi na pytania na podstawie posiadanych informacji i poprawiać własne błędy. Ale sztuczną inteligencję można wykorzystywać także w innych celach. Pomijając kwestię jej bezpośredniego zastosowania na polu walki, technologia może zostać wykorzystana do tworzenia tzw. deep fake’ów – zapisów dźwięku i obrazu wyglądających jak rzeczywistość. 

Wobec sztucznej inteligencji narosło wiele stereotypów podsycanych przez sferę kultury masowej. Wizja potężnego sztucznego mózgu przejmującego kontrolę nad światem przy pomocy armii robotów to schemat masowo powtarzany nie tylko w literaturze science-fiction klasy B czy C, ale także przez masowe produkcje Hollywood, takie jak choćby „2001 Odyseja Kosmiczna” Stanleya Kubricka czy zainicjowany przez Jamesa Camerona cykl filmów o Terminatorze – żeby wymienić najbardziej klasyczne przykłady. Ale liczba filmów, których scenariusz stanowi wariację opowieści o zbuntowanym sztucznym mózgu, idzie w dziesiątki, jeśli nie setki. 

W takiej atmosferze trudno naprawdę dyskutować o problemie, który zostanie z nami na dłużej. Ale sztucznej inteligencji nie powinniśmy obawiać się w sposób irracjonalny. Nad zjawiskiem trzeba racjonalnie dyskutować i ustalić, na ile zyski z zastosowania AI dla podniesienia kreatywności i produktywności będą obciążone ryzykiem dla bezpieczeństwa ludzi. Zamiast więc emocjonować się wizją zbuntowanych robotów strzelających do ludzi, warto zastanawiać się nad tym, jak w sensowny sposób pobudzać innowacje w zakresie sztucznej inteligencji, tak aby nie tworzyć technologicznego chaosu i jednocześnie nie szkodzić ludziom. Nie brak bowiem ostrzeżeń z poważnych środowisk naukowych, że AI już wkrótce może wyeliminować wiele zawodów wykonywanych przez człowieka. 

Słychać coraz więcej głosów, aby rozwój sztucznej inteligencji wpasować w sztywny gorset regulacji. Problem w tym, że ustalenie standardów etycznych dotyczących sztucznej inteligencji dotyczyć będzie przede wszystkim podmiotów związanych z cywilizacją zachodnią – krajów rozwiniętych kierujących się w podejmowanych decyzjach podstawowymi zasadami etycznymi. Podjęte kroki na rzecz samoograniczenia nie będą jednak stanowiły przeszkód dla podmiotów pragnących wykorzystać AI w celach niemających nic wspólnego z etyką. Sztuczną inteligencję można zastosować zarówno w pogłębianiu cyberbezpieczeństwa, jak też do doskonalenia ataków na systemy informatyczne. „Możemy stać się ofiarami albo tych, którzy będą dysponentami systemów sztucznej inteligencji albo – jeśli się ona zautonomizuje – jej samej. W obu przypadkach oddziaływanie negatywne może być równie silnie” – ostrzega socjolog prof. Andrzej Zybertowicz, doradca prezydenta RP, kierujący zespołem socjologów zajmujących się zagrożeniami bezpieczeństwa związanymi z wykorzystywaniem zaawansowanej technologii. 

Na razie próbę wprowadzenia ograniczeń dla funkcjonowania i wykorzystania AI podejmuje Unia Europejska, widząc w tej technologii zagrożenie dla demokracji i wolności.  Europejczycy proponują wprowadzenie zakazu wykorzystywania AI w przestrzeni publicznej między innymi w systemach identyfikacji biologicznej, rozpoznawania emocji, tworzenia baz danych na podstawie rozpoznawania twarzy, nie mówiąc już o próbach wpływania na wyborców i wyniki wyborów. Parlament Europejski chce także, aby generatywne systemy sztucznej inteligencji – takie jak ChatGPT – musiałyby także spełniać wymogi przejrzystości. Tym próbom warto przyglądać się bliżej, nie zapominając jednak, że są na świecie podmioty – zarówno państwowe, jak i prywatne – które w żaden sposób nie są zainteresowane narzucaniem AI jakiegokolwiek regulacyjnego kagańca. I to ich naprawdę należy się obawiać. 

Tomasz Deptuła

Dziennikarz, publicysta, ekspert ds. komunikacji społecznej. Przez ponad 25 lat korespondent polskich mediów w Nowym Jorku i redaktor “Nowego Dziennika”. Obecnie zastępca szefa Centrum Badań nad Bezpieczeństwem w Warszawie.

Więcej o autorze / autorach:
Podziel się
Oceń

Reklama