Ciemna strona wykorzystania AI przez państwo, czyli jak sztuczna inteligencja staje się narzędziem nadzoru, kontroli i władzy

Autor: Iwona Kula

Marzeniem wszystkich despotów na przestrzeni wieków było nadzorowanie społeczeństwa, AI daje teraz tak możliwość. Postaram się w tym krótkim artykule pokazać to na konkretnych przykładach.

Sztuczna inteligencja (AI) coraz głębiej wnika w struktury państwowe — od urzędów i sądów po wojsko i służby bezpieczeństwa. W idealnym świecie miałaby to zwiększać efektywność administracji, wykrywać przestępczość i wspierać obywateli. Jednak w rzeczywistości wiele rządów wykorzystuje jej potencjał do nadzoru, manipulacji i utrwalania władzy.

1. Od innowacji do inwigilacji

Najbardziej znanym przykładem państwowego wykorzystania AI do nadzoru jest Chińska Republika Ludowa. Tamtejszy system rozpoznawania twarzy, rozwijany przez firmy takie jak SenseTime, Megvii i Hikvision, jest jednym z najbardziej zaawansowanych na świecie. W miastach takich jak Szanghaj czy Shenzhen kamery śledzą obywateli w czasie rzeczywistym, identyfikując ich na ulicach, w metrze i w miejscach pracy.

AI łączy dane z systemów kamer z informacjami z sieci społecznościowych i baz administracyjnych. W efekcie powstaje profil behawioralny każdego obywatela — zawierający jego poglądy, aktywność finansową, a nawet ekspresję emocji w mediach społecznościowych.

Ten system stanowi podstawę „Social Credit System”, który ocenia lojalność wobec państwa. Obywatele z niskim wynikiem mogą stracić dostęp do kredytów, możliwości podróżowania czy pracy w instytucjach publicznych.

To nie jest już tylko nadzór — to algorytmiczna forma dyscyplinowania społeczeństwa.

2. Zachód też patrzy  i też sięga po możliwości jakie daje AI

Choć Chiny są najbardziej drastycznym przykładem, wykorzystanie AI przez państwa na razie demokratyczne również budzi niepokój.

Stany Zjednoczone: amerykańskie służby korzystają z AI do analizy danych wywiadowczych i nadzoru elektronicznego. Programy takie jak Palantir Gotham, używane przez FBI, CIA czy Pentagon, łączą informacje z kamer, baz danych, sieci społecznościowych i kart kredytowych. Oficjalnie — by wykrywać zagrożenia terrorystyczne; w praktyce — tworzą potężne narzędzie analityczne zdolne do śledzenia milionów ludzi bez ich wiedzy.

Wielka Brytania: w Londynie testowany był system Live Facial Recognition (LFR), opracowany przez firmę NEC. Policja wykorzystywała go do automatycznego identyfikowania osób poszukiwanych na ulicach. Niezależne audyty wykazały jednak, że algorytmy błędnie rozpoznawały twarze kobiet i osób o innym kolorze skóry, a obywatele nie mieli możliwości sprzeciwu wobec bycia skanowanymi.

Polska: choć w mniejszej skali, również eksperymentuje z AI w nadzorze — m.in. systemem Pegasus, który umożliwiał nielegalne śledzenie dziennikarzy i polityków opozycji. Co prawda Pegasus nie jest w pełni autonomiczną AI, ale jego połączenie z analizą danych i automatycznym profilowaniem to krok w stronę algorytmicznego państwa nadzoru.

3. Algorytmy w służbie sprawiedliwości — czy na pewno sprawiedliwości?

Bardzo niebezpiecznym pomysłem jest także wprowadzanie AI do systemów sądownictwa i administracji.

W USA system COMPAS analizuje dane o oskarżonych, by przewidywać ryzyko ponownego popełnienia przestępstwa. Niestety, badania pokazały, że algorytm ten dyskryminuje Afroamerykanów, przypisując im wyższe ryzyko recydywy niż białym oskarżonym o podobnym profilu.

Podobne tendencje pojawiają się w Europie, gdzie systemy AI analizują dane o beneficjentach świadczeń społecznych. W Niderlandach rządowy system SyRI miał wykrywać nadużycia w systemie zasiłków, ale w praktyce profilował mieszkańców ubogich dzielnic, prowadząc do masowego naruszania prywatności. Po fali protestów SyRI został uznany za niezgodny z prawami człowieka, tu należy zadać sobie pytanie czy na pewno został wyłączony, czy ewoluował w inny system.

4. Technologia AI w służbie propagandy

AI nie służy jedynie do nadzoru — coraz częściej staje się narzędziem manipulacji informacją.

Generatywne modele językowe i obrazu umożliwiają tworzenie deepfake’ów opisanych w poprzednim artykule — realistycznych, ale fałszywych nagrań, które mogą wpływać na opinię publiczną.

W 2024 roku Rosja i Iran zostały oskarżone przez firmy Meta i Microsoft o używanie sieci botów napędzanych przez AI do tworzenia i rozpowszechniania fałszywych treści politycznych. Te same techniki mogą być (i są) wykorzystywane przez rządy przeciw własnym obywatelom — do kontrolowania narracji i tłumienia sprzeciwu.

5. Nowy wymiar władzy

Państwo wyposażone w sztuczną inteligencję przestaje być tradycyjnym administratorem — staje się systemem samouczącym się, zdolnym do obserwacji, analizy i reagowania szybciej niż ludzie.

To prowadzi do zjawiska, które filozofowie technologii nazywają „cyfrowym autorytaryzmem” — modelu władzy opartego nie na sile fizycznej, lecz na przewidywaniu i kształtowaniu ludzkich zachowań.

Taki system może działać nawet bez widocznej przemocy — wystarczy, że obywatele wiedzą, iż są obserwowani.

6. Jak się bronić?

Demokratyczne państwa muszą wprowadzić mechanizmy kontroli obywatelskiej nad AI.

Najważniejsze z nich to:

  • transparentność algorytmów – obywatel ma prawo wiedzieć, jakie dane są zbierane i jak są analizowane,
  • audyt etyczny – niezależne organy powinny badać, czy systemy AI nie dyskryminują i nie łamią praw człowieka,
  • prawo do wyjaśnienia – każdy, kogo dotyczy decyzja podjęta przez algorytm, powinien mieć dostęp do uzasadnienia i możliwość odwołania,
  • ograniczenie nadzoru biometrycznego – szczególnie w przestrzeni publicznej.

Bez tych zasad grozi nam przyszłość, w której państwo nie będzie już strażnikiem prawa, lecz jego algorytmicznym wykonawcą — pozbawionym ludzkiego sumienia.

7. Zakończenie

Sztuczna inteligencja to narzędzie o ogromnym potencjale. Może wspierać demokrację — albo ją zniszczyć. To, którą drogę wybierzemy, zależy nie od technologii, lecz od ludzi, którzy ją tworzą, regulują i nadzorują.

W epoce, gdy decyzje polityczne podejmowane są w oparciu o dane i modele predykcyjne, najważniejsze pytanie jaki powinniśmy sobie postawić brzmi:

kto kontroluje algorytmy – i czy ktokolwiek kontroluje kontrolujących?

Autor: Tomasz Szepelak

Ekspert z wieloletnim doświadczeniem w branży IT, posiadający obszerną wiedzę techniczną obejmującą Cyberbezpieczeństwo w środowiskach Windows i Linux, znajdowanie podatności na stronach internetowych oraz udzielanie zaleceń dotyczących zamykania znalezionych podatności. Jest odpowiedzialny za wsparcie użytkowników końcowych, instalację, wdrożenie i utrzymanie różnych komponentów LAN/WAN w środowisku korporacyjnym w strukturach firmy międzynarodowej. Uczestniczy w różnorodnych projektach, jako niezależny lider projektu, pracuje nad wdrożeniami nowych rozwiązań. Może pochwalić się również szeroką wiedzą w zakresie procesów IT i tytułem ITIL® Expert.