E-mail wyświetla się niepoprawnie?
Zobacz w przeglądarce
 
Panoptykon.org
 
 
PanOptyka #152
 
2 lipca 2024 r.
 
 
 

 

 
Temat numeru
 
Szklana kula, AI i akt o sztucznej inteligencji
 
 
 
 
Czy kandydat sprawdzi się w pracy? Czy klientka spłaci kredyt w terminie? Jakie jest ryzyko, że nastolatek popełni przestępstwo? Czy ta osoba powinna dostać wizę?
 
Osoby poszukujące miłości analizują horoskopy i fazy księżyca. Sfery biznesowe, szukając odpowiedzi na pytanie o opłacalność inwestycji albo najlepszy kierunek rozwijania firmy, pokładają nadzieje w analizie SWOT, PEST, metodzie delfickiej czy scenariuszowej. A rządy tego świata (na potrzeby kształtowania polityki społecznej i migracyjnej) – w narzędziach bazujących na sztucznej inteligencji.
 
W Holandii AI wykorzystywane jest do typowania młodzieży „wysokiego ryzyka” i wyłudzeń, oceny wniosków wizowych oraz ryzyka ekstremizmu. Z tego rodzaju rozwiązań korzystają lub chcą zacząć korzystać też inne państwa, w tym Polska.
 
Wszyscy się śmieją z horoskopów (chociaż nikt się nie śmieje z analizy SWOT), ale wiara w czarne skrzynki – również bazujące na statystyce i karmione nie wiadomo jakimi danymi (tak, chodzi nam o AI!) – wydaje się niezachwiana. I to pomimo licznych przykładów systemów, których działanie doprowadziło do pogłębienia dyskryminacji lub do absurdalnych błędów. Rozmowa rekrutacyjna z chatbotem (działy HR wielkich korporacji namiętnie deklarują korzystanie z AI) i algorytm, który preferuje kandydatki w okularach czy zakrytą głową, to nie żart, tylko eksperyment opisany przez naukowców z poważnego brytyjskiego uniwersytetu.
 
Ryzyko związane z wykorzystaniem algorytmów sztucznej inteligencji do profilowania ludzi dostrzegli twórcy unijnego rozporządzenia o sztucznej inteligencji. Czy nowe przepisy położą kres dyskryminacji i odtwarzaniu krzywdzących stereotypów przynajmniej w relacji obywatel–państwo? Jakie obowiązki będą miały podmioty rozwijające systemy AI wysokiego ryzyka i jakie prawa zyskają osoby poddane ich działaniu?
 
Przeczytaj naszą analizę: AI Act w działaniu 3: profilowanie i ocenianie ludzi dzięki sztucznej inteligencji
 
 

 

 
Wywiad
 
Cyfrowe granice „Twierdzy Europa”
 
 
 
 
Niedługo miną 23 lata od zamachu na World Trade Center, który stał się wygodnym wytrychem dla polityków sięgających po broń z arsenału polityki strachu. Wiadomo, przerażeni ludzie konsolidują się wokół rządzących silną ręką, bo ci obiecują bezpieczeństwo. Instrumentalnie traktowane bezpieczeństwo to m.in. ułuda szczelnych granic, przez które nie przejdą żadni „niepożądani” ludzie.
 
W jaki sposób można zrealizować taką obietnicę albo przynajmniej pokazać, że traktuje się ją poważnie? Na przykład budując bazy danych i rozwijając nadzorcze technologie. Jednak, jak tłumaczy Chris Jones, badacz migracji i praw człowieka z londyńskiego StateWatch w rozmowie z Jakubem Dymkiem:
 
Betonowe mury nie powstrzymały ludzi przed migracją, ułudą jest sądzić, że powstrzymają ich narzędzia sztucznej inteligencji.
 
Jasne, algorytm to nie to samo, co drut kolczasty i pałka. A jednak dla osób w drodze skutki działania sztucznej inteligencji dzielącej ludzi na „bezpiecznych” (którzy mają prawo swobodnie poruszać się po Europie) i „podejrzanych” (np. dlatego, że mają ciemniejszy kolor skóry albo pochodzą z biedniejszych rejonów świata) są takie same.
 
W jaki sposób technologie cyfrowe, algorytmy i sztuczna inteligencja zmieniają pojęcie ochrony granic? Przeczytaj wywiad z Chrisem Jonesem z brytyjskiej organizacji StateWatch.
 

 

 
Służby pod kontrolą
 
Prostujemy dezinformację: służby już mogą inwigilować bez kontroli, PKE nie sprawi, że będzie jeszcze gorzej.
 
Polski rząd pracuje nad wdrożeniem Europejskiego kodeksu łączności elektronicznej (dyrektywy unijnej) w ramach prawa komunikacji elektronicznej. Termin na wdrożenie unijnych przepisów minął w grudniu 2020 r., Polska płaci Komisji Europejskiej gigantyczne kary, a w kompetencjach służb nic się nie zmieni. Prostujemy zatem dezinformację opublikowaną w ostatnich tygodniach przez niektóre media.
 
PKE nie zwiększy uprawnień służb (chociaż w 2021 r. chciał tego minister – koordynator służb specjalnych, to propozycje te nie zostały uwzględnione). Już teraz są one jednak zbyt szerokie, a służby działają poza kontrolą. Oto pięć kluczowych faktów:
 
  1. Firmy telekomunikacyjne mają obowiązek gromadzenia metadanych telekomunikacyjnych i udostępniania ich służbom na każde żądanie.
  2. Policja i służby (ABW, CBA itd. – jest ich 10) mają dostęp do danych, takich jak imię, nazwisko i PESEL osoby, na którą zarejestrowany jest numer telefonu, a także do danych lokalizacyjnych tego numeru.
  3. Zgodnie z prawem służby mogą uzyskać dostęp do treści SMS-ów wyłącznie za zgodą sądu.
  4. Kontrola sądów nad działaniami służb jest fikcyjna (dlatego CBA mogło wyłudzić zgodę sądu i stosować inwigilację Pegasusem w celach politycznych).
  5. Obowiązek gromadzenia danych o każdej i każdym z nas, a następnie udostępniania ich służbom w niekontrolowany sposób jest niezgodny z prawem unijnym, co potwierdzają liczne orzeczenia Trybunału Sprawiedliwości Unii Europejskiej. Naruszenia praw człowieka dopatrzył się w tym również Europejski Trybunał Praw Człowieka w wyroku z 28 maja 2024 r.
 
Przepisy regulujące działanie służb wymagają pilnej reformy, tak żeby zapobiegać nieprawidłowościom i nieuzasadnionej inwigilacji. Przeczytaj, co musi się zmienić.
 

 

 
Polecamy także
 
 
Panoptykon 4.0: Czy AI może zastąpić psychoterapeutę? Rozmowa z Cvetą Dimitrovą
 
 
 
 
Na rynku pojawiają się aplikacje wykorzystujące ChatGPT praktycznie do wszystkiego: monitorowania stanu zdrowia, wyszukiwania informacji, oceny wydajności pracy, tworzenia muzyki, tekstów czy obrazów. A każda szanująca się firma „zatrudnia” chatbota, który ma przyspieszać obsługę klienta i odciążać pracowników. Gdzie przebiega granica, za którą rozmowa z botem staje się nie tylko irytująca, ale wręcz niebezpieczna? Czy wyznacza ją nasze emocjonalne zaangażowanie? A może etyka zawodowa, jakiej oczekujemy od lekarzy i terapeutów?
 
Czy AI może wesprzeć albo zastąpić terapeutę? Co w takiej relacji może pójść nie tak?
 
O tym Katarzyna Szymielewicz rozmawia z Cvetą Dimitrovą, filozofką i psychoterapeutką z ośrodka „Znaczenia. Psychoterapia”.
 
Słuchaj podcastu Panoptykon 4.0 na stronie panoptykon.org lub przez RSS w ulubionej apce. Znajdziesz nas też na popularnych platformach streamingowych.
 

 
Walcz o wolność i prywatność!
 
Wspieraj Fundację Panoptykon darowiznami
 
 

 
Fundacja Panoptykon
Orzechowska 4/4
02-068 Warszawa
 
Redakcja i kodowanie: Anna Obem. Konsultacja: Dominika Chachuła, Wojciech Klicki, Katarzyna Szymielewicz. Korekta: Urszula Dobrzańska. Archiwum: Aleksandra Iwańska.
 

 
Obserwuj nas na
 
Mastodonie
 
 
 
 

 
Subskrybuj newsletter
 
Zrezygnuj z newslettera
 
Archiwalne numery
 
Zrezygnuj ze wszystkich mailingów od Panoptykonu