|
|
Czytamy raporty z oceny ryzyk VLOP-ów (żebyście wy nie musieli)
|
|
|
|
|
W tym odcinku: TikTok.
|
|
Platforma z filmikami, na których nastolatki lipsyncują do popularnych piosenek? Chińskie narzędzie do zbierania danych o reszcie świata, przed którym drżą Amerykanie? Czas na nowe skojarzenia! Dla nas TikTok to jedna z wielkich platform internetowych, która z powodu ryzyk, jakie wiążą się z jej działalnością, musi cyklicznie raportować do Komisji Europejskiej. W raporcie powinna znaleźć się lista owych ryzyk, a także środków, jakie firma podejmuje, żeby te ryzyka minimalizować.
|
|
Podobne skojarzenia mamy z Facebookiem, YouTube’em czy X/Twitterem (tych platform jest ponad 20). Ot, zwykłe firmy, które mają jednak nadzwyczajny wpływ m.in. na prawa człowieka czy zdrowie ludzi (nie tylko korzystny) i powinny brać za to odpowiedzialność.
|
|
Czekając na publikację raportów przygotowanych przez VLOP-y, braliśmy pod uwagę różne scenariusze. Na przykład to, że raporty podane do wiadomości publicznej zostaną mocno okrojone i niewiele się z nich dowiemy. Albo że będą pustą PR-ową gadką, w której firmy będą odżegnywały się od odpowiedzialności. Oczywiście nie liczyliśmy na to, że platformy wezmą na siebie odpowiedzialność za wszystkie szkody, które powodują – mieszanie w demokracjach, uzależnienia, rozprzestrzenianie się dezinformacji, destrukcyjny wpływ na zdrowie psychiczne użytkowniczek i użytkowników czy na rozwój dziecięcych mózgów (bo kto zarzyna kurę znoszącą złote jajka, nawet jeśli ta demoluje kurnik?).
|
|
|
|
Mimo to jesteśmy zaskoczeni tupetem, z jakim platformy mówią: „co złego, to WY”. Bo zdaniem zarówno Mety, jak i TikToka, których raporty do tej pory przeanalizowaliśmy, największe ryzyko wiąże się z tym, że niektóre osoby publikują na platformach niepożądane treści.
|
|
Co w walce z takimi złymi ludźmi może zrobić dobra platforma? TikTok deklaruje, że aktywnie walczy ze szkodliwymi treściami. Chroni dzieci, flaguje dezinformację, zachęca do sprawdzania źródeł i zaprasza do kontaktu z telefonem zaufania. Daje też do dyspozycji różne narzędzia kontroli feedu, a nawet ogranicza możliwość publikowania deepfake’ów.
|
|
„I co z tego!” – zapytamy tonem rozpieszczonego watchdoga. Starania to najwyraźniej za mało, skoro na platformie jest pełno kontrowersyjnych treści (od pomysłów faszerowania cukierków haloweenowych trutką na gryzonie po teorie o płaskiej Ziemi).
|
|
Poza tym moderacja to nie wszystko. Raport TikToka (podobnie jak ten dotyczący Facebooka) nie odpowiada jednak na pytanie o to, jaki udział w szkodliwości ma sama firma. Model biznesowy oparty na zaangażowaniu? Hiperpersonalizacja? Sposób projektowania interfejsów? O tym w raporcie za wiele nie przeczytacie.
|
|
Czy walka ze szkodliwymi treściami wystarczy, żeby zadowolić Komisję Europejską, której rolą jest egzekwowanie nowych przepisów aktu o usługach cyfrowych? Na razie Komisja nie wydaje się zadowolona. Niedawno wszczęła przeciwko TikTokowi postępowanie mające wyjaśnić, czy platforma odpowiednio zarządza ryzykiem mieszania w wyborach. Miało to związek z (unieważnionymi!) wyborami prezydenckimi w Rumunii. Komisja zażądała też dodatkowych wyjaśnień dotyczących sposobu zaprojektowania i funkcjonowania systemów rekomendacyjnych TikToka (gwoli uczciwości dodajemy, że nie tylko od niego – podobne wyjaśnienia mają złożyć też inne platformy, np. YouTube czy Snapchat).
|
|
|
|
|
|
|
|
|
Wolność słowa nie wyklucza walki z hejtem. Spór o kompetencje Prezesa UKE
|
|
|
|
|
Kolejna odsłona wdrożenia aktu o usługach cyfrowych (Digital Services Act, DSA) w Polsce i powracające pytanie: „Czy walka z hejtem i ochrona wolności słowa się wykluczają?”. Według nas nie, ale Ministerstwo Cyfryzacji dorzuca do projektu procedurę, która niepokoi.
|
|
Skoro jesteśmy przy niepokoju, niepokoi nas też atmosfera wokół wdrożenia. Jeśli słuchaliście w styczniu radia, być może trafiliście na któryś z wywiadów z naszą prawniczką Dorotą Głowacką, która na pytania „Czy będzie cenzura Internetu?” i „Czy grozi nam powtórka z ACTA?” z trudem powstrzymywała westchnięcie. Jesteśmy krytyczni wobec proponowanych przepisów, ale studzenie nastrojów trochę nas przerasta. Wolelibyśmy zająć się w tym czasie merytoryczną dyskusją na temat tego, co i jak należy zmienić w propozycji Ministerstwa Cyfryzacji, tak żeby nowa procedura blokowania nielegalnych treści nie była wykorzystywana do nadmiernego ograniczania wolności słowa. A o co w niej właściwie chodzi?
|
|
|
|
W skrócie chodzi o to, że odwołania od decyzji moderacyjnych podejmowanych m.in. przez platformy internetowe (prywatne firmy) ma rozpatrywać Prezes Urzędu Komunikacji Elektronicznej (urząd państwowy, dotychczas regulator rynku telekomunikacyjnego i pocztowego), który – jeśli uzna, że dana treść jest nielegalna (np. stanowi przestępstwo, ale także choćby bezprawne naruszenie dóbr osobistych) – będzie mógł wydać nakaz jej zablokowania. Nasze postulaty obejmują m.in. to, aby:
|
- ograniczono zakres nielegalnych treści, jakimi miałby zajmować się Prezes UKE, do najpoważniejszych i wymagających pilnej reakcji przestępstw (rozstrzyganie przez ten organ sporów dotyczących także m.in. praw autorskich czy dóbr osobistych to zbyt duże pole do nadużyć);
- umożliwiono autorom blokowanych treści zajęcie stanowiska przed podjęciem decyzji przez Prezesa UKE (żeby decyzje nie były podejmowane jednostronnie);
- zapewniono skuteczną kontrolę sądu nad decyzjami Prezesa UKE (zwykła skarga do sądu administracyjnego, naszym zdaniem, tego nie gwarantuje).
|
|
W opinii przygotowanej przez nas wspólnie z Helsińską Fundacją Praw Człowieka wyjaśniamy dokładnie, jakie wyzwania widzimy i co dokładnie proponujemy.
|
|
|
|
|
|
|
Poczta naruszyła prawo, ale nie działała bezprawnie?
|
|
|
Poczta Polska pobrała dane z bazy PESEL w celu organizacji wyborów kopertowych. Chociaż zrobiła to na podstawie nieważnej decyzji premiera, Sąd Okręgowy w Warszawie oddalił pozew Wojciecha Klickiego, który poskarżył się na naruszenie prywatności. Złożyliśmy apelację, a w tekście oburzamy się na ten skandaliczny wyrok i analizujemy, co oznacza on dla ochrony naszych danych.
|
|
|
|
|
|
„Przestańmy myśleć o rozwoju AI jak o wyścigu” – wywiad z Ambą Kak
|
|
|
|
„Co to jest DeepSeek i dlaczego wywraca porządek w branży AI” – pyta Reuters w artykule opublikowanym wkrótce po wypuszczeniu na zachodni rynek nowego „asystenta AI”. Nazywanego też przez niektórych „chińskim następcą ChataGPT”. A wywraca, bo według oficjalnych informacji wytrenowanie modelu DeepSeek-V3 wymagało użycia chipów Nvidia o wartości 6 milionów dolarów (domyślamy się, że myk polega na tym, że to względnie tanio). Korzystanie z tego narzędzia też ma być wielokrotnie tańsze niż w przypadku odpowiedników wyprodukowanych przez amerykańskie firmy.
|
|
Jeśli nie macie w swoim portfelu akcji Nvidia, możecie spać spokojnie lub – za Ambą Kak, którą przepytał dla nas Jakub Dymek – zadać pytanie o to, jak często rywalizacja USA i Chin wraca w tej dyskusji, ale też kto na tym najwięcej zyskuje. W czyim interesie leży ukazywanie tematu sztucznej inteligencji przez pryzmat konkurencji i międzynarodowego wyścigu? I przyjrzeć się odpowiedzi: Amba Kak twierdzi, że poza największymi graczami na tym wyścigu wszyscy tracą.
|
|
|
|
|
|
|
|
|
Walcz o wolność i prywatność!
|
|
|
|
|
|
|
Fundacja Panoptykon
Orzechowska 4/4 02-068 Warszawa
|
|
|
Redakcja i kodowanie: Anna Obem. Konsultacja: Dominika Chachuła, Dorota Głowacka, Wojciech Klicki, Mateusz Wrotny. Korekta: Urszula Dobrzańska. Archiwum: Aleksandra Iwańska.
|
|
|
|
|
|
|
|
|
|
|
|
|