Cała prawda o Tobie, czyli o tym, jak algorytmy nami sterują- PFRR
Cała prawda o Tobie, czyli o tym, jak algorytmy nami sterują

Cała prawda o Tobie, czyli o tym, jak algorytmy nami sterują

Jednym z bieżących wyzwań dotyczących AI jest problem inwigilacji. Może nie zdajesz sobie z tego sprawy, ale żyjemy w erze kapitalizmu inwigilacyjnego. Duże firmy i rządy zbierają informacje o naszej aktywności i trenują na ich bazie AI. A ta później jest często wykorzystywana do inwigilacji i nowoczesnej socjotechniki. Algorytmy zmieniają nasze zachowanie i myślenie. A także zwiększają nierówności i zagrażają demokracji.

Jesteśmy otoczeni całą masą przedmiotów, które są połączone z Internetem. Nasze laptopy, smartfony, systemy Internetu rzeczy, wirtualni asystenci, inteligentne lodówki i wiele innych urządzeń cyfrowych zbiera i wysyła tam dane. Korzystamy przy tym z płatności bezgotówkowych, wysyłamy e-maile, używamy portali społecznościowych… Wszystko to produkuje cały czas dane. A dzięki nim AI może szczegółowo nas poznać. Te dane to takie cyfrowe ślady. Niezależnie od tego, czy idziesz pobiegać, jesz obiad w restauracji, czy stoisz w korku – praktycznie każda czynność tworzy cyfrowy ślad. Już w 2012 r. firma IBM oszacowała, że każda osoba na Ziemi generowała rocznie 500MB danych w formie różnych aktywności. Jeśli wydrukowalibyśmy wszystkie dane wyprodukowane przez całą ludzkość w ciągu tylko jednego dnia na kartkach A4 – druk dwustronny, czcionka 12 – to stos papieru sięgnąłby z Ziemi aż do Słońca, i to 4 razy!

W 2025 roku danych tych będzie ponad 120 razy więcej niż w 2012 roku. I z roku na rok stają się coraz bardziej cenne. Ropa naftowa od wieków królowała jako jeden z najcenniejszych zasobów społeczeństwa. W historii ci, którzy kontrolowali ropę, kontrolowali gospodarkę. Jednak w dzisiejszej gospodarce opartej na danych to nie ropa, a dane są potencjalnie bardziej wartościowe. W 2017 roku The Economist opublikował artykuł zatytułowany: Najcenniejszym zasobem świata nie jest już ropa, ale dane. A tak naprawdę jeszcze bardziej wartościowa jest wiedza, którą można z nich wydobyć przy pomocy, m.in. AI.

Dane są dla sztucznej inteligencji tym, czym jest paliwo dla naszych samochodów. Bez paliwa samochód będzie bezużyteczny, dokładnie tak jak AI bez danych. Zatem na początku musimy ją na ich bazie nauczyć – niczym małego człowieka. Pokazujemy jej więc kolejne porcje informacji, a algorytm uczy się przewidywania, rozpoznawania lub łączenia ze sobą pewnych faktów. Jeżeli do trenowania sztucznej inteligencji użyjemy wspomnianych wcześniej śladów cyfrowych, to będziemy mogli stworzyć modele, które opiszą zachowanie dowolnych osób. Dowiemy się dzięki tym modelom kim one są, jakie mają preferencje, co robią i co zrobią w przyszłości. Natomiast zapisane dane pozwolą odtworzyć dowolną historię życia.

Badania dra Michała Kosińskiego ze Stanford University pokazują, że AI pozwala rozpoznać orientację polityczną tylko na bazie zwykłego zdjęcia profilowego. Skuteczność algorytmu wynosi 72%, przy czym ludzie osiągają skuteczność na poziomie 55%. Z ludzkiej twarzy można też wyczytać inne informacje, bo np. orientację seksualną. Tutaj dokładność algorytmu wynosi już 91% dla mężczyzn i 83% dla kobiet. Zaś, gdy algorytm uzyska dostęp ok. 300 lajków na profilu na FB, stworzy nasz dokładny profil psychologiczny i będzie widział o nas więcej niż nasza żona albo mąż.

Jest też inne ryzyko, bo niedługo nawet nasze myśli mogą przestać być prywatne.  Pod koniec 2019 roku naukowcy z rosyjskiej firmy Neurobotics Corporation opracowali system w postaci zakładanego na głowę czepka
z elektrodami. Wystarczy, że specjalny automat odczyta fal mózgowe, a algorytm w kilka chwil może zrekonstruować obrazy oglądane przez badaną osobę i wyświetlić je na ekranie. Podobną technologię wykorzystali badacze z Uniwersytetu w Kyoto, którzy zaprezentowali w 2017 roku mechanizm rekonstrukcji obrazu, który działa na bazie głębokich sieci neuronowych. Podczas eksperymentów ochotnik wchodził do tuby funkcjonalnego rezonansu jądrowego. Później oglądał dostarczone obrazki, a system miał za zadanie wyświetlić na ekranie badaczy to, na jakie zdjęcia patrzy badana osoba. Na fotografiach były różne zwierzęta, owoce i kwiaty i podobne obrazy pojawiały się na monitorze. System działał również w czasie snu, pokazując na ekranie przybliżony obraz tego, o czym śnił ochotnik.

Coraz częściej mówi się również o wszczepianiu różnych układów z nanodrutami do mózgu. Znanym przykładem jest Neuralink Elona Muska. Tego typu rozwiązania mogą bezpośrednio odczytywać sygnały z naszego mózgu – i to z nieporównywalnie większą precyzją niż elektrody umieszczone na powierzchni głowy. Takie interfejsy mózg – komputer na pewno pomogą osobom niepełnosprawnym. Będą one mogły przy ich pomocy obsługiwać komputer lub komunikować się z innymi ludźmi.  Jednak czy nie powinniśmy się obawiać wizji przedstawione w odcinku „Krokodyl” serialu Black Mirror, gdzie takie technologie stały się naszym największym przekleństwem? W końcu dziś nadal najbardziej prywatną rzeczą pozostaje to, co mamy w głowie.

Nowoczesne algorytmy sztucznej inteligencji, bardzo dużo danych oraz szybkie komputery… Po połączeniu tych trzech elementów otrzymujemy potężne narzędzie, które w niewłaściwych rękach może służyć do bardzo skutecznej kontroli społecznej i propagandy. Przy pomocy takich technik da się bowiem stworzyć system cyfrowej dyktatury, tysiące razy doskonalszy niż ten z Roku 1984 Orwella. System Wielkiego Brata, który cały czas na nas patrzy i prowadzi wszechobecną i ciągłą inwigilację.

Wyobraź sobie świat, w którym wszyscy źli ludzie są karani, a dobrzy nagradzani. Świat, w którym dobry obywatel nie musi już stać w kolejce do lekarza, może wyjechać za granicę, wysłać dzieci do dobrej szkoły lub szybko załatwić różne sprawy w urzędzie. W przeciwieństwie do złego obywatela, będzie mógł wziąć kredyt i dostanie pracę. Brzmi to jak fikcja.
Ale taki świat już istnieje! Dokładnie w Chinach, które właśnie testują krajowy system kredytu społecznego. Pierwszy taki, który na bieżąco analizuje wszystkie zachowania mieszkańców: ekonomiczne, moralne i społeczne. I kontroluje Cię przy pomocy kamer, smartfonu, komputera i innych urządzeń.

Na samym początku otrzymujesz tysiąc punktów. I teraz już wszystko zależy od Ciebie – albo powiększysz swój stan posiadania, albo pomniejszysz. Jeśli przekroczysz próg 1050 punktów, stajesz się „wzorem uczciwości”, obywatelem klasy AAA. Trochę mniejsza liczba punktów – od 1030 do 1049 – i masz odznakę AA, czyli „wspaniałej uczciwości”. Jeśli łamiesz zasady – tracisz punkty. Poziom ostrzegawczy C zaczyna się po tym, gdy liczba punktów spadnie poniżej 849. Najgorzej mają ludzie z kategorii D, czyli wszyscy posiadający mniej niż 599 punktów. Są uznawani za osoby nieuczciwe i trafiają na listę specjalnego nadzoru. A ich twarze wyświetlają się na ogromnych ekranach w centrach miast, aby pokazać innym, do czego może prowadzić złe zachowanie.

Co to znaczy, że jesteś złym obywatelem? Wystarczy, że przejedziesz samochodem na czerwonym świetle lub krytykujesz partię w Internecie. AI momentalnie Cię zidentyfikuje i oceni. Albo nie posprzątasz po swoim psie, który załatwił się na trawniku. To samo – kamera rozpozna twoją twarz i odejmie 5 punktów z Twojego konta. Odrobić stratę możesz tylko w jeden sposób – musisz czynić respektowane przez system dobro. Pomożesz parze staruszków – dostajesz
5 punktów. Jesteś członkiem partii: +20 punktów. Odśnieżysz ulicę – na Twoje konto wleci kolejnych 5 punktów. Jeśli jesteś wzorowym obywatelem i masz wystarczającą liczbę punktów to możesz liczyć na specjalne traktowanie. Dostajesz wtedy dostęp do usług, które wcześniej były zablokowane. Nie musisz już składać w banku żadnych zabezpieczeń przy ubieganiu się o kredyt, znajdziesz wysokopłatną pracę, bezproblemowo kupisz bilet na pociąg lub samolot.

Nie tylko w Chinach powstają takie systemy. Również na naszym podwórku jesteśmy coraz częściej otoczeni algorytmami, które podejmują decyzje mające wpływ na życie wielu osób. Programy decydują o tym, kogo wypuścić z więzienia, gdzie zbudować bank, dokąd wysłać policję… Podejmują decyzje odnośnie do przyznania kredytu lub naszego zdrowia. Informują nas również o tym, kiedy powinniśmy przyjść do pracy i znajdują nam partnerów na portalach randkowych. Mogą też filtrować treści, które widzimy
w Internecie. A to wszystko odbywa się na bazie wirtualnego profilu, który sobie skonstruowały, ucząc się z opisujących nas danych.

Jak mogliśmy przeczytać w poprzednich odcinkach tego cyklu – z jednej strony otworzyły się przed nami nieprawdopodobne możliwości, jakich nigdy wcześniej nie było. Z drugiej strony pojawiają się nowe wyzwania, którym musimy sprostać. Sztuczna inteligencja, jak każda technologia, jest obosieczna. I w zależności od tego, kto jej użyje – może być naszym najlepszym albo najgorszym wynalazkiem. Musimy pamiętać, że w centrum tego wszystkiego powinien być zawsze człowiek – wszak technologia jest dobrym niewolnikiem, ale złym panem.

O Autorze

Petros Psyllos

Petros Psyllos (petrospsyllos.com) jest elektronikiem, programistą, innowatorem i przedsiębiorcą. W ramach działalności naukowo-wynalazczej zajmuje się, m.in. zastosowaniami sztucznej inteligencji, robotami społecznymi, wirtualnymi asystentami, human–computer interaction i ochroną zdrowia. Został uznany przez amerykańską edycję Forbesa za jednego z 30 najlepszych europejskich innowatorów oraz MIT Review za jednego z 10 najzdolniejszych młodych wynalazców w Polsce.

Artykuł powstał w ramach kampanii społeczno-edukacyjnej „#wkręć się w technologię!” realizowanej przez Podlaską Fundację Rozwoju Regionalnego. Wydarzenie „Gospodarka jutra” będące finałem kampanii już dziś 26 maja w Operze i Filharmonii Podlaskiej!

Zobacz pozostałe artykuły

Zapisz się do newslettera