Duńczycy testują na swoich obywatelach rozwiązania znane z Chin. Zmierzamy w kierunku algokracji

Terminator. Zdjęcie ilustracyjne Źródło: wikimedia
Terminator. Zdjęcie ilustracyjne Źródło: wikimedia
REKLAMA

Gmina Gladsaxe w Kopenhadze po cichu eksperymentowała z systemem, który wykorzystywał algorytmy do identyfikowania dzieci zagrożonych przemocą seksualną, umożliwiając władzom wczesną interwencję u wytypowanych w ten sposób rodzin i odbieranie im dzieci.

Celem systemu miało być typowanie dzieci przez specjalnie opracowane algorytmy, które bazowałyby na zbieranych przez duński rząd informacjach powiązanych z osobistym numerem identyfikacyjnym, który jest przypisany wszystkim Duńczykom po urodzeniu. Informacje te obejmują dokumentację medyczną, informacje o zatrudnieniu i wiele innych.

REKLAMA

Duński rząd stosuje już podobne algorytmy do wykrywania przypadków nadużyć w swoim rozbudowanym systemie pomocy społecznej. Benefitami i uprawnieniami jakie mają Duńczycy zarządza scentralizowana agencja (Udbetaling Danmark).

Algorytmy bazują na ogromnej liczbie danych gromadzonych przez system i wyłapują podejrzane wzorce zachowań sugerujące np: wyłudzanie świadczeń. Listy takich „podejrzanych” trafiają następnie do władz miejskich, które mogą na ich podstawie wszczynać postępowania weryfikujące zasadność pobierania świadczeń. Dane zawierają informacje na temat małżonków, dzieci, a także dane z instytucji finansowych.

Ilość danych dotyczących obywateli, do których dostęp ma Udbetaling Danmark rosła systematycznie na przestrzeni lat. Próbowano włączyć do niego nawet dane dotyczące zużycia energii elektrycznej. Rząd duński wykorzystał też lukę w nowych europejskich przepisach dotyczących danych cyfrowych, aby umożliwić władzom publicznym wykorzystanie danych zebranych pod jednym pretekstem do zupełnie innych celów.

Tego typu programy rodzą pytanie o zasadność podejmowanych decyzji, są one oparte bowiem o nieujawnione algorytmy, tworzone bez nadzoru, często przez same maszyny, które „uczą się” (optymalizują działanie) na podstawie historycznych danych. Są one kompletnie niezrozumiałe dla przeciętnego obywatela. Program wdrażany w Gladsaxe wywołał protesty społeczne co opóźniło jego uruchomienie.

Są także podobne do słynnych programów nagradzania pożądanych przez władzę zachowań społecznych funkcjonujących już w Chinach. Także rządy demokratyczne nie potrafią się oprzeć pokusie kontrolowania społeczeństwa za pomocą algorytmów.

Algokracja może się pojawić nie tyle ile zaplanowany sposób sprawowania władzy ale raczej efekt uboczny stosowania algorytmów. Jest bardzo wątpliwe czy możliwa będzie kontrola sądowa. Skoro decyzja podejmowana jest przez algorytm to kto miałby personalnie odpowiadać za jej podjęcie?

Naukowcy ostrzegają, że sztuczna inteligencja może stanowić zagrożenie dla ludzkości. W ten sposób wypowiadał się między innymi światowej sławy fizyk teoretyczny Stephen Hawking. Chodzi w szczególności o zastosowania militarne ale nie tylko.

Sztuczna inteligencja może np: wykradać tożsamość podszywając się pod konkretną osobę i tworząc wiadomości w jego imieniu. Liczba obszarów, w których mogą wystąpić zagrożenia ze strony sztucznej inteligencji jest długa i będzie rosnąć w miarę gdy stanie się ona coraz bardziej powszechna i będziemy od niej jako ludzkość uzależnieni.

Źródło: „Foreign Policy”

REKLAMA