Międzynarodowe działania ukierunkowane w stronę rozwoju sztucznej inteligencji to nie tylko domena globalnych korporacji. Technologie oparte o SI znajdują też zastosowanie w sektorze bezpieczeństwa, z tego powodu są one uwzględniane w transatlantyckich działaniach w ramach NATO.
W lutym 2019 roku prezydent Trump podpisał zarządzenie wykonawcze 13859 w sprawie podtrzymania amerykańskiego przywództwa w obszarze sztucznej inteligencji. Inicjatywa ukierunkowuje działania w kluczowych obszarach, m.in. inwestycji w badania i rozwój, wytycznych i regulacji, budowy kompetencji i zaangażowania we współpracę międzynarodową w celu wspierania amerykańskich badań i innowacji w dziedzinie sztucznej inteligencji. Pod koniec 2020 roku na zorganizowanej w ramach inicjatywy Europa Przyszłości (Future Europe Initiative) zastępca sekretarza generalnego NATO, Mircea Geoană, słusznie zauważył, że „istnieją znaczne korzyści z utworzenia transatlantyckiej społeczności cyfrowej współpracującej w zakresie sztucznej inteligencji (SI) oraz nowych i przełomowych technologii, w których NATO może odgrywać kluczową rolę, ułatwiając innowacje”. Trudno się z tymi słowami nie zgodzić. O ile w Europie państwa członkowskie mogą liczyć na pomoc organów UE, o tyle w przypadku współpracy transatlantyckiej NATO wydaje się naturalnym liderem w dziedzinie, która już dziś wpływa na bezpieczeństwo na całym świecie. Wiodąca rola USA w ramach NATO może też znacznie pomóc w przypadku ujednolicania międzynarodowych aktów prawnych dotyczących SI. W Stanach Zjednoczonych prace nad tym obszarem są znacznie bardziej zaawansowane niż w innych krajach. Sama fraza „Sztuczna Inteligencja” pojawia się na dzień dzisiejszy w 117 ustawach.
Rozważając temat bezpieczeństwa SI, w pierwszym odruchu najłatwiej jest pomyśleć o zagrożeniach związanych ze złowrogimi maszynami, które sterowane przez wymykającą się spod kontroli sztuczną inteligencję zagrażają ludzkości. Nic bardziej mylnego. Obecnym zagrożeniom daleko od tych rodem z popularnych filmów science-fiction. Co nie oznacza, że należy je ignorować. Już w 2016 roku podczas konferencji „Etyka Sztucznej Inteligencji” podniesiono problematykę systemów LAWS (Lethal Autonomous Weapons Systems) – śmiercionośnej broni autonomicznej. Autor prezentacji zwrócił uwagę, że w niektórych obszarach zapalnych, takich jak chociażby strefa zdemilitaryzowana między Koreą Północną a Koreą Południową, tego typu półautonomiczne systemy uzbrojenia są już rozmieszczone. Warto wspomnieć, że pierwsze prototypowe wieże strażnicze Samsung SGR-A1, które potrafią namierzać cel bez interwencji człowieka, wyprodukowano 15 lat temu. Mimo upływu czasu, w dalszym ciągu przenoszenie na maszynę problemu moralnego, polegającego na pociągnięciu za spust karabinu, ma swoich zwolenników, jak i przeciwników.
Utrata życia w wyniku działania SI to oczywiście największe z zagrożeń dla jednostki. Niestety, istnieje też cała gama innych. Najczęściej dyskutowanym zagrożeniem jest perspektywa utraty pracy na rzecz robotów wyposażonych w SI. Zacieranie się granic między światem cyfrowym, fizycznym i biologicznym realizuje się już dzisiaj, roboty i cyfrowe programy przejmują od nas obowiązki, które można zautomatyzować przy użyciu dostępnych rozwiązań opartych o SI. McKinsey Global Institute opublikował badania, według których do 2030 roku 375 mln osób będzie musiało zmienić swoją dotychczasową pracę z powodu postępującej automatyzacji. Łatwo policzyć, że stanowi to niespełna 14% całego globalnego rynku pracy. Raport Oxford Economics „How robots change the world” mówi o 20 mln robotników, którzy zostaną całkowicie zastąpieni przez roboty do 2030 roku. Nic więc dziwnego, że obywatele obawiają się, że mogą zostać pozbawieni miejsc pracy. Nie do każdego przemawia fakt, że wraz z rozwojem SI w całkiem naturalny sposób zmieni się rynek. Tak jak w przypadku każdej z dotychczasowych rewolucji przemysłowych tradycyjne zawody ulegną zmianom, część z obecnych przestanie być potrzebna, a pojawią się nowe.
Kolejne z potencjalnych zagrożeń wiąże się z przetwarzaniem naszych danych. Po pierwsze, większość modeli sztucznej inteligencji potrzebuje prawdziwych danych, żeby nauczyć się poprawnego działania. Algorytmy dobierające dla nas propozycję filmów do obejrzenia niekoniecznie muszą działać w oparciu o listę ostatnio oglądanych przez nas produkcji. SI zaskakująco dobrze dobierze interesujący dla nas materiał, analizując naszą aktywność w mediach społecznościowych, geolokację i preferencje związane z naszymi zakupami online. Wykorzystywanie naszych danych, nawet w formie zanonimizowanej, stanowi problem dla części społeczeństwa. Innym problemem, zdecydowanie dalej idącym w skutkach, jest maszynowe przetwarzanie danych prywatnych i podejmowanie przez algorytmy decyzji mających wpływ na życie obywateli. Modele SI, które uczono przy użyciu nieodpowiedniego zestawu danych wejściowych, mogą stanowić dla osób poddawanych analizie spore zagrożenie. Znane są przypadki testowo używanej SI, mającej na celu wykrycie potencjalnych przestępców poprzez analizę konturów i mimiki twarzy, dającej bardzo wypaczone wyniki. Liczne modele predykcyjne, mające wspierać działania aparatu sprawiedliwości przy wydawaniu decyzji o wyrokach i zwolnieniach za kaucją, konsekwentnie przynoszą gorsze wyniki dla czarnoskórych mężczyzn. Dzieje się tak z powodu zestawu danych „startowych”. Innym przykładem są ostatnie badania przeprowadzone na Uniwersytecie Kalifornijskim w Berkeley, które wykazały że system pożyczek hipotecznych oparty na sztucznej inteligencji oferował czarnym i latynoskim pożyczkobiorcom mniej korzystne marże kredytu niż osobom białym. System rekrutacji Amazona, poszukując najlepszych pracowników na podstawie zaprogramowanych danych, wybierał głównie mężczyzn. Powód był prosty, algorytm bazował na danych o wydajności pracowników, które dotyczyły wyłącznie mężczyzn zatrudnionych w firmie. Przykłady można mnożyć, wszystkie jednak łączy jeden fakt: złe dane wejściowe nauczą SI podejmować decyzje, które niekoniecznie będą wolne od błędów.
Aby SI rozwijała się w bezpieczny sposób, kluczowe wydają się dwa czynniki. Pierwszy z nich to finansowanie. Pod tym względem kraje Unii Europejskiej wciąż pozostają w tyle względem Stanów Zjednoczonych, powoli doganiając Chiny. W 2016 roku na rozwój sztucznej inteligencji w UE przeznaczono 3,2 mld EUR, podczas gdy w Ameryce Północnej około 12,1 mld EUR, a w Państwie Środka około 6 mld EUR. W 2019 roku pierwszy raz w historii Stanów Zjednoczonych, rozwój sztucznej inteligencji oraz autonomicznych systemów został uznany jako priorytet badawczo-rozwojowy i osobno wyszczególniony w budżecie administracji. Firma analityczna International Data Corp. przewiduje, że globalne wydatki na sztuczną inteligencję wzrosną ponad dwukrotnie w ciągu najbliższych czterech lat, z 41 miliarda EUR w 2020 roku do ponad 90 miliardów EUR w 2024 roku.
Drugi czynnik to odpowiednie regulacje, które będą zarówno gwarantem równomiernego rozwoju technologicznego państw sojuszniczych, ale też pozwolą na antropocentryczne ukierunkowanie algorytmów, chroniąc nasze prawa i wartości. W USA pierwsze ramy prawne w obszarze SI wprowadzono już w 2011 roku – w stanie Nevada przyjęto przepisy dotyczące testowania pojazdów autonomicznych. Innych prekursorów prawnych wymogów można szukać też w zasadach przewodnich, zatwierdzonych w grudniu 2019 przez grupę ekspertów rządowych ds. nowych technologii pracujących pod auspicjami Organizacji Narodów Zjednoczonych. Opisujący 11 wiodących zasad dokument dotyczy Autonomicznych Śmiercionośnych Systemów Uzbrojenia (LAWS) jednak precyzuje je na tyle dokładnie, że można je rozszerzyć, przenosząc na obszar cywilnych zastosowań SI. Innym z dostępnych wytycznych są sformułowane przez Komisję Europejską najważniejsze zasady, których zadaniem jest zapewnienie bezpiecznej SI. Wymogi stawiane w rezolucjach uwzględniają m.in.: przewodnią i nadzorczą rolę człowieka, techniczną solidność i bezpieczeństwo, ochronę prywatności i zarządzanie danymi, różnorodność, niedyskryminację i sprawiedliwość, odpowiedzialność. Pochwalić należy też firmy technologiczne, które nie czekając na instytucje państwowe, same znacznie wcześniej formułowały swoje dobre praktyki. Przykładem mogą być chociażby „Asilomar AI Principles” opublikowane w 2017, „Trusted AI” firmy IBM czy „Responsible AI Practices” firmy Google. Na chwilę obecną Polskie prawodawstwo nie traktuje odpowiedzialności za błędy sztucznej inteligencji w żaden szczególny sposób. Zmieni się to w niedalekiej przyszłości, ponieważ trwają prace nad dostosowaniem prawa RP do unijnej rezolucji na ten temat, uchwalonej w październiku 2020 roku. Kooperacja transatlantycka w tej kwestii ma ogromne znaczenie, gdyż prawidłowo przygotowane i wdrożone regulacje mają szansę pozytywnie wpłynąć na działanie wspólnego rynku oraz na bezpieczeństwo systemów opartych o SI.
Zaawansowane algorytmy SI pojawiają się na naszych oczach. W najbliższych latach zmienią w znacznym stopniu życie większości ludzi na świecie. Należy się na te zmiany przygotować i zrobić to z możliwie jak największą odpowiedzialnością. Kooperacja na szczeblu państw i organizacji takich jak NATO wydaje się być jednym z filarów nadchodzącej transformacji.
Wiktor Sędkowski
Wiktor Sędkowski ukończył teleinformatykę na Politechnice Wrocławskiej, specjalizując się w dziedzinie bezpieczeństwa cybernetycznego. Jest ekspertem od zagrożeń cyfrowych. Posiadacz certyfikatu CISSP, OSCP i MCTS, pracował jako inżynier i solution architect dla wiodących firm informatycznych.
Niniejszy artykuł powstał w ramach działalności społeczno-misyjnej polskiego think tanku Warsaw Institute. Jeśli cenicie Państwo przygotowane przez naszych ekspertów treści, apelujemy o wsparcie finansowe naszej działalności realizowanej na zasadzie non-profit. Do regularnych darczyńców przysyłamy bezpłatnie anglojęzyczny kwartalnik The Warsaw Institute Review.Więcej informacji: www.warsawinstitute.org/support/Darowizny można dokonać bezpośrednio na konta bankowe:USD: PL 82 1020 4900 0000 8502 3060 4017EUR: PL 85 1020 4900 0000 8902 3063 7814GBP: PL 18 1020 4900 0000 8302 3069 6641PLN : PL 41 1020 1097 0000 7202 0268 6152SWIFT: BPKOPLPWDziękujemy!
Warsaw Institute to polski think tank zajmujący się geopolityką. Główne obszary badawcze to stosunki międzynarodowe, bezpieczeństwo energetyczne oraz obronność. Warsaw Institute wspiera Inicjatywę Trójmorza oraz stosunki transatlantyckie.
Warsaw Institute is a Polish think tank focusing on geopolitics. The main research areas are international relations, energy security and defense. The Warsaw Institute supports the Three Seas Initiative and transatlantic relations.
Mariusz Misiewiczjest licencjonowanym agentem obrotu nieruchomościami z HomeSmart Connect w Chicago. Dzięki umiejętnościom i doświadczeniu oferuje usługi na wysokim poziomie, które należą się klientom. Od 2006 r. pracuje nie tylko z kupującymi i sprzedającymi, ale także z firmami REO. Zdobywca wielu nagród branżowych, m.in. ERA Top Producer Award, Coldwell Banker Outstanding Performance Award oraz International Sterling Society Award.Mariusz „Mario” MisiewiczHomeSmart Connecttel. (773) 412-0517e-mail: [email protected]
The Regulation of Artificial Intelligence – What Can America and the World Expect?
International measures aimed at developing artificial intelligence (AI) are not only the domain of global corporations. AI-based technologies are also used in the security sector. That is why they are a subject of transatlantic cooperation within the framework of NATO.
In February 2019, President Trump signed an Executive Order (no. 13859) to uphold the American leadership in the field of artificial intelligence. The initiative sets the tone for key areas, such as: R&D investment, guidelines and regulations as well as gaining competencies and engaging in international collaboration to support American research and innovation in artificial intelligence. In late 2020, at an event organized within the framework of the Future Europe Initiative, NATO Deputy Secretary General Mircea Geoană rightly noted that “there are considerable benefits of setting up a transatlantic digital community cooperating on Artificial Intelligence (AI) and emerging and disruptive technologies, where NATO can play a key role as a facilitator for innovation and exchange.” It is hard to disagree with these words. While European Member States can rely on EU bodies in terms of assistance, when it comes to transatlantic cooperation NATO seems to be a natural leader in an area that is already affecting security worldwide. Moreover, the US leadership in NATO can significantly help to create international standards on AI. Work in this field is much more advanced in the United States than in other countries. The phrase “Artificial Intelligence” alone appears in 117 acts as of today.
The first thing that comes to mind when considering the topic of AI security are the dangers associated with ominous machines that, commanded by an out-of-control artificial intelligence, threaten humanity. Nothing could be more wrong. Current risks are far from those depicted in popular science-fiction movies. This does not mean that they should be ignored. Already in 2016, during a conference on “The Ethics of Artificial Intelligence,” the issue of LAWS (Lethal Autonomous Weapons Systems) was raised. The author of the presentation pointed out that in some hotspots, for instance, the demilitarized zone between North Korea and South Korea (DMZ), such semi-autonomous weapon systems are already deployed. It is worth mentioning that the first prototypes of Samsung SGR-A1 sentry guns, which can track the target without human intervention, were manufactured 15 years ago. Despite the passage of time, transferring the moral problem of pulling the trigger of a rifle on a machine, continues to have its supporters and opponents.
Loss of life as a result of AI’s action is, of course, the greatest of the risks to the individuals. Unfortunately, there are also numerous other ones. The most commonly discussed threat is the prospect of losing one’s job to AI-equipped robots. The blurring of the lines between the digital, physical and biological worlds is already happening nowadays. Robots and digital programs are taking over responsibilities that can be automated using available AI solutions. McKinsey Global Institute published a study which concludes that 375 million people will have to change their current jobs by 2030 due to increasing automation. It is easy to estimate that this stands for less than 14% of the global labor market. The report of Oxford Economics entitled “How robots change the world” suggests that 20 million workers will be fully replaced by robots by 2030. It is no wonder that citizens fear that they may be deprived of jobs. The fact that the market will quite naturally change along with the development of AI does not convince everyone. As in the case of every industrial revolution to date, existing jobs will change, some of them will no longer be needed and new ones will emerge.
Another potential risk is related to how our data is processed. First of all, most AI models need real data to learn how to work properly. Algorithms that suggest which movie we should watch next do not necessarily pick them on the basis of the recently viewed productions. The AI will surprisingly well select a film that is interesting for us by analyzing our social media activity, geolocation and preferences associated with our online purchases. The use of our data, even anonymized, is a problem within society. Another issue, with far-reaching consequences, is that private data are processed by machines and decisions that affect citizens’ lives are made by algorithms. AI models that were taught with improper input, can pose a considerable threat to those analyzed by them. There were cases of AI designed to detect potential criminals through the analysis of their facial contours and expressions that produced highly skewed results. Numerous predictive models, intended to assist the justice system in issuing sentences and bails, have consistently produced worse results for Black males. This is because of the starting data set. Furthermore, according to a recent study from the University of California, Berkeley, an AI-based mortgage lending system charged Black and Hispanic borrowers higher rates than White people for the same loans. When searching for the best employees on the basis of input data, Amazon’s recruiting tool selected mostly men. The reason was simple – the algorithm was based on data that included only the performance of male employees. There are more similar examples, but they all have one fact in common – bad input data will teach AI to make decisions that are not necessarily error-free.
AI can develop itself safely under two conditions. The first of them is funding. In this respect, EU countries are still lagging behind the United States and slowly catching up with China. In 2016, €3.2 billion was allocated to AI development in the EU, compared to about €12.1 billion in North America and about €6 billion in the Middle Kingdom. In 2019, for the first time in US history, the development of artificial intelligence and autonomous systems was identified as an R&D priority and specified in the administration’s budget. International Data Corporation, a market intelligence firm, predicts that global spending on artificial intelligence will more than double over the next four years, from €41 billion in 2020 to more than €90 billion in 2024.
The second factor includes appropriate regulations that will guarantee uniform technological development of allied countries and allow for anthropocentric orientation of algorithms, protecting our rights and values. In the USA, the first legal framework in the area of AI was introduced as early as 2011 – the state of Nevada passed a bill allowing for testing autonomous vehicles. Other forerunners of legal requirements can also be found in the guiding principles, approved in December 2019 by a group of government experts on new technologies, working under the auspices of the United Nations. The document, describing 11 standards, addresses Lethal Autonomous Weapon Systems (LAWS), but provides enough details to be applied also in the realm of civilian use of AI. The Ethics Guidelines for Trustworthy AI, formulated by the European Commission, are yet another example of already available rules. They include aspects such as: human agency and oversight, technical robustness and safety, privacy and data governance, diversity, non-discrimination, fairness and accountability, among others. Technology companies that did not wait for state institutions to act and formulated their own best practices much earlier should also be praised. Examples include “Asilomar AI Principles,” published in 2017, IBM’s “Trusted AI” or Google’s “Responsible AI Practices.” Currently, Polish legislation does not specify liability for errors of artificial intelligence in any particular way. This will change in the near future because Polish law is already being adapted to the corresponding EU resolution (adopted in October 2020). Transatlantic cooperation on this issue is of great importance because properly developed and implemented regulations are likely to have a positive impact on the common market and the security of AI-based systems.
Advanced AI algorithms are emerging before our eyes. In the coming years, they will significantly change the lives of the majority of people in the world. It is essential to prepare for these changes and to do so with the utmost responsibility. Cooperation at the state level and within organizations such as NATO seems to be one of the pillars of the upcoming transformation.
Author: Wiktor Sędkowski
Wiktor Sędkowski graduated in Teleinformatics at the Wrocław University of Science and Technology, specialized in cybersecurity field. He is an expert on cyber threats. CISSP, OSCP and MCTS certificates holder. Worked as an engineer and solution architect for leading IT companies.