Kanadyjska policja używa metod prognozowania, gdzie zostaną popełnione przestępstwa. Tymczasem niektóre policyjne narzędzia naruszają konstytucję – wskazuje najnowszy raport torontońskiego Citizen Lab.
Prognozowanie, gdzie mogą zostać popełnione przestępstwa zanim zostaną popełnione, jest dalekie od opowiadania Philipa K. Dicka i bazującego na nim filmu Stevena Spielberga „Raport mniejszości”. To głównie rozpoznawanie twarzy, analiza treści w mediach społecznościowych, skanowanie tablic rejestracyjnych wykrywające wzorce zachowań, czy metody przechwytywania treści stosowane w wykrywaniu molestowania dzieci. Na przykład, w Vancouver narzędzia prognoz wdrożone pod koniec 2016 r. pozwoliły w ciągu pierwszych sześciu miesięcy zmniejszyć liczbę włamań o 20 proc.
W Vancouver policja używa programu, który pozwala przewidywać sześć obszarów w mieście, gdzie w ciągu najbliższych dwóch godzin dojdzie do włamań. Policja opracowała to narzędzie we współpracy z grupą naukowców i firmą Latitute Geographics. Z kolei w Toronto policja we współpracy z firmą badawczą Environics Analytics i z wykorzystaniem narzędzi IBM testuje analizy danych, wspierające działania policji w wytypowanych rejonach. Policja w Saskatoon we współpracy z Uniwersytetem Saskatoon i rządem prowincji stworzyła laboratorium analiz i prognoz, którego celem jest wyprzedzające identyfikowanie potencjalnych ofiar, na przykład - zaginionych osób.
Nie tylko policja korzysta z narzędzi prognozujących – resort sprawiedliwości prowincji Ontario testuje użycie zautomatyzowanej oceny ryzyka w decyzjach przedprocesowych, takich jak zwolnienie za kaucją.
Są także kontrowersyjne przedsięwzięcia – na przykład w Calgary policja używa narzędzi analitycznych amerykańskiej firmy Palantir Technologies, nie tylko gromadzących dane z różnych źródeł, ale także przechowujących dane wrażliwe, jak wyznanie, wygląd, kontakty danej osoby. Policja w Calgary wykorzystuje algorytmy w analizie mediów społecznościowych i jest to ta sama technologia, która może być stosowana do śledzenia wybranych osób.
Raport wylicza używanie technologii analitycznych przez policję federalną do nadzoru organizacji broniących praw człowieka, szczególnie tych zaangażowanych - na przykład - w protesty.
„Użycie technologii algorytmów przez policję może prowadzić do wielu potencjalnych naruszeń konstytucji i praw obywatelskich określonych w Kanadyjskiej Karcie Praw i Wolności” - napisano w raporcie. Naruszane prawa człowieka to prawo do prywatności, prawo do swobody wypowiedzi, pokojowych zgromadzeń i stowarzyszania się, prawo do równości, prawo do wolności i ochrony przed arbitralnym zatrzymaniem, prawo do procesu.
Raport wskazuje na dodatkowy problem z „algorytmiczną policją”: choć same technologie przetwarzają dane według zadanych obiektywnych parametrów, to bazują na danych historycznych, a te mogą być funkcją uprzedzeń. W związku z tym będą - na przykład - zawierać informację o nieproporcjonalnie wyższym odsetku Indian trafiających do więzień, w konsekwencji dyskryminacji rdzennych narodów Kanady i uprzedzenia z przeszłości staną się częścią bieżącej analizy danych. Z drugiej strony uprzedzenia sprawiły, że brakuje danych - na przykład - o zamordowanych Indiankach.
Autorzy napisali, że dzięki ostrożnemu podejściu kanadyjskich ustawodawców i samej policji, w tym dzięki niechęci do skandali, takich jak w Stanach Zjednoczonych, stosowanie narzędzi wspierających policję nie jest powszechne, tak jak w USA i Wielkiej Brytanii. Częściej zdarza się użycie algorytmów nadzorujących, jak - na przykład - monitorowanie tablic rejestracyjnych niż algorytmów prognozujących przestępstwa.
„Jeśli chodzi o technologie prognozujące, jeszcze nie jest za późno na to, by Kanada przyjęła właściwe ramy prawne, mechanizmy nadzoru i pragmatyki służbowej, by zapewnić, że jeśli takie programy zostaną wdrożone, stwarzały mniejsze zagrożenie dla praw konstytucyjnych i praw człowieka” - podkreślono w raporcie.
Nie są to zalecenia bezpodstawne. Jeszcze w połowie stycznia br. RCMP zapewniała, że nie używa kontrowersyjnej technologii rozpoznawania twarzy Clearview AI. Wcześniejsze dochodzenie „New York Times” udowodniło, że Clearview AI skopiowało ponad 3 mld zdjęć z mediów społecznościowych i przekształciło je w bazę danych, używaną przez 600 organizacji policyjnych. Pod koniec lutego br., gdy hakerzy wykradli listę klientów Clearview AI, RCMP potwierdziło, że jednak posiłkuje się tą technologią. Urząd federalnego komisarza ds. prywatności (OCP) prowadzi dochodzenie, a na początku lipca Clearview AI poinformowało OCP o zaprzestaniu oferowania swoich usług w Kanadzie.
Z Toronto Anna Lach(PAP)
Reklama