Pamiętacie Raport mniejszości? PreCrime wchodzi w życie

konto.spidersweb.pl 8 godzin temu

W 2002 r. Steven Spielberg zaprosił widzów do świata roku 2054, w którym policja aresztuje przestępców zanim ci zdążą popełnić swoje czyny. Większość z nas traktowała Raport mniejszości jako dystopijną wizję dalekiej przyszłości.

Dwadzieścia trzy lata później okazuje się, iż przyszłość przyszła szybciej, niż Philip K. Dick mógł sobie wyobrazić, gdy w 1956 r. pisał swoją kultową nowelę. I nie potrzeba precogów – wystarczą algorytmy.

Brytyjskie PreCrime wchodzi w życie

Brytyjski rząd zapowiedział uruchomienie programu, który brzmi jak scenariusz science fiction, ale jest przerażająco realny. Koncentracje Danych o Przestępczości to oficjalna nazwa systemu, który będzie używał sztucznej inteligencji do przewidywania, gdzie i kiedy dojdzie do przestępstw zanim te się wydarzą. jeżeli brzmi to znajomo, to dlatego, iż to niemal dokładnie to, o czym opowiadał Dick w swojej noweli, a później Spielberg w filmie.

To też jest ciekawe:

Nowy system będzie operacyjny do 2030 r. i ma na celu stworzenie interaktywnych map przestępstw w czasie rzeczywistym dla całej Anglii i Walii. Będzie analizował dane z różnych źródeł – od akt karnych po lokalizacje poprzednich incydentów i wzorce zachowań znanych przestępców. To wszystko po to, by przewidzieć, gdzie najprawdopodobniej dojdzie do przemocy z użyciem noży, zachowań antyspołecznych czy innych poważnych przestępstw.

Facial recognition – wszechobecna obserwacja

Równolegle brytyjska policja wprowadza rozbudowany system rozpoznawania twarzy. Właśnie ogłoszono wdrożenie dziesięciu furgonetek wyposażonych w systemy Live Facial Recognition (LFR) w siedmiu policyjnych okręgach Anglii. Te mobilne jednostki będą skanować twarze przechodniów i porównywać je z bazami danych poszukiwanych przestępców.

Furgonetki z systemami Live Facial Recognition

System jest bardzo precyzyjny – South Wales Police chwali się, iż od sierpnia 2019 r. nie było ani jednego fałszywego alarmu. Tym niemniej krytycy wskazują na znacznie szersze problemy. Big Brother Watch ostrzega, iż rozpoznawanie twarzy na żywo zamienia każdego przechodnia w chodzący kod kreskowy i traktuje nas wszystkich jak naród podejrzanych.

Gdy algorytmy myślą rasistowsko

Raport Amnesty International z lutego ujawnił, iż co najmniej 33 brytyjskie siły policyjne używają systemów predykcyjnych – to prawie trzy czwarte wszystkich sił w Wielkiej Brytanii. I wyniki są… problematyczne. Badanie przypadku z Plainfield w New Jersey pokazało, jak inteligentne mogą być te algorytmy. System Geolitica (dawniej PredPol) miał współczynnik sukcesu poniżej 1 proc. Z 23 631 przewidywań wygenerowanych dla departamentu policji mniej niż 100 rzeczywiście pokryło się z przestępstwami w przewidywanej kategorii.

Jeszcze gorzej wygląda kwestia dyskryminacji. Algorytmy uczą się na historycznych danych policyjnych, które odzwierciedlają dziesięciolecia rasistowskich praktyk w egzekwowaniu prawa. W rezultacie społeczności, które historycznie były nadmiernie nadzorowane, są częściej identyfikowane jako zagrożone przyszłymi zachowaniami przestępczymi.

Sukces czy porażka?

Obrońcy technologii predykcyjnych wskazują na kilka spektakularnych sukcesów. Memphis Police Department, które używa systemu IBM Blue CRUSH, zgłosiło ponad 30 proc. redukcję poważnych przestępstw i 15 proc. spadek przestępstw z użyciem przemocy. System analizuje wzorce przestępstw i tworzy wielowarstwowe mapy gorących punktów na podstawie aresztowań i incydentów.

Podobnie Richmond Police Department zanotowało 47 proc. redukcję skarg na strzelanie w powietrze podczas Sylwestra i 246 proc. wzrost odzyskanej broni po wdrożeniu analityki predykcyjnej. Te liczby brzmią imponująco, ale krytycy zwracają uwagę na podstawowe pytanie: czy korelacja oznacza przyczynowość?

Philip K. Dick miał rację? Dystopia na wyciągnięcie ręki

Najgorsza część tej całej historii? Philip K. Dick przewidział nie tylko technologię, ale też jej największą wadę. W Raporcie mniejszości system precogów czasami generował sprzeczne przewidywania – raport mniejszości, który podważał pewność większości. Dzisiaj wiemy, iż algorytmy są równie zawodne.

Może najbardziej niepokojące w całej tej sytuacji jest to jak gwałtownie społeczeństwo akceptuje technologie, które jeszcze niedawno były domeną science fiction. Brytyjski rząd inwestuje 4 mln funtów w ramach pierwszej fazy rozwoju systemu przewidywania przestępstw, podczas gdy organizacje praw człowieka desperacko próbują wprowadzić zakazy na technologie rozpoznawania twarzy.

Tymczasem w Stanach Zjednoczonych 20 największych sił policyjnych już używa predykcyjnej policji, a w Wielkiej Brytanii ponad 1300 osób dziennie jest profilowanych przez system sztucznej inteligencji Ministry of Justice. To nie jest daleka przyszłość – to się dzieje już teraz, codziennie.

Czy jesteśmy gotowi na PreCrime?

Czy Philip K. Dick przestrzegał nas przed czymś, czy może opisywał nieuchronną ewolucję egzekwowania prawa? Jedno jest pewne – technologie, które kiedyś wydawały się niemożliwe, stają się rzeczywistością szybciej niż ktokolwiek mógł przewidzieć. Pytanie brzmi: czy jako społeczeństwo jesteśmy gotowi na świat, w którym algorytmy decydują, kto jest potencjalnym przestępcą, zanim jeszcze pomyśli o popełnieniu czynu?

Może najbardziej przerażające w całej tej historii jest to, iż nikt nie pyta nas o zgodę na życie w tym systemie. Buduje się go po cichu, kawałek po kawałku, algorytm po algorytmie. Raport mniejszości nie był przewodnikiem – był ostrzeżeniem. Pytanie brzmi: czy jest już za późno, żeby go posłuchać?

Idź do oryginalnego materiału