reklama
Parlament Europejski przyjął rezolucję wzywającą do wprowadzenia ogólnego progu wiekowego na media społecznościowe. Zakaz social mediów ma objąć osoby, które nie ukończyły jeszcze 16. roku życia.
W artykule
Rezolucja nie stanowi twardego prawa, ale jej treść określa kierunek, w którym porusza się unijna polityka cyfrowa. Dla większości popularnych platform granicą wieku do tej pory było 13 lat – nikt tego jednak nie weryfikował. Nowa propozycja zakłada, że dzieci w wieku od 13 do 16 lat mogą używać social mediów tylko za zgodą rodziców.
Zakaz social mediów – dlaczego 16 lat?
W centrum dyskusji znalazło się zdrowie psychiczne. Parlament nie kryje, że media społecznościowe są projektowane w sposób, który sprzyja uzależniającemu korzystaniu. Mechanizmy stosowane powszechnie na Facebooku, Instagramie czy TikToku wyraźnie pogarszają zdolność skupienia i wzmacniają kompulsywne nawyki. Posłowie mówią wprost: platformy stosują strategie, które nie tyle przyciągają młodych użytkowników, ile zatrzymują przy sobie kosztem ich zdrowia.
Europosłanka Christel Schaldemose, inicjatorka rezolucji, określiła obecną sytuację mianem „eksperymentu na dzieciach”. Jej zdaniem amerykańskie i chińskie platformy mają nieograniczony dostęp do uwagi najmłodszych, realnych narzędzi kontroli i bez społecznego przyzwolenia. W takiej sytuacji UE musi wyznaczyć jasne granice, bo skutków tego eksperymentu nie poznamy w pełni przez kolejne lata.
Przeczytaj także: Meta ukryła badania pokazujące, że Instagram i Facebook szkodzą zdrowiu psychicznemu
Europa chce jednolitego systemu weryfikacji wieku
Obok ograniczeń wiekowych Parlament wskazał potrzebę stworzenia ogólnoeuropejskiego systemu potwierdzania wieku. Chodzi o rozwiązanie, które będzie zarówno skuteczne, jak i prywatne – bez możliwości nadużyć przez państwa czy platformy. Komisja Europejska już pracuje nad cyfrowym portfelem tożsamości i aplikacją do weryfikacji wieku, które mogłyby stać się fundamentami nowych zasad.
Jednocześnie europosłowie zwracają uwagę, że nawet perfekcyjny system weryfikacji nie zwalnia platform z odpowiedzialności. Nadal muszą projektować swoje usługi tak, by były bezpieczne i dostosowane do wieku odbiorców. To w praktyce oznacza konieczność przebudowy wielu mechanizmów rekomendacji i projektów interfejsu.

Koniec z uzależniającymi funkcjami?
Jednym z najmocniejszych punktów rezolucji jest wezwanie do zakazania najbardziej uzależniających elementów. Chodzi przede wszystkim o nieskończone przewijanie, automatyczne odtwarzanie filmów, pętle nagród czy znikające relacje (zaprojektowane tak, by wywoływać FOMO).
Parlament chce, by tego typu rozwiązania były domyślnie dezaktywowane dla osób nieletnich, a w niektórych przypadkach – w ogóle zabronione.
Pod lupą znalazły się także algorytmy rekomendacji oparte na zaangażowaniu, czyli te, które wzmacniają skrajne treści, promują sensację lub nagradzają emocjonalną intensywność. Zdaniem europosłów nie można ich stosować wobec małoletnich, ponieważ zatrzymują uwagę, ale nie biorą pod uwagę konsekwencji psychologicznych.
Gry, loot boxy i generatywna AI
Rezolucja wykracza poza same media społecznościowe. Parlament wskazuje, że częścią problemu są również niektóre gry online. Loot boxy (losowe nagordy), wirtualne waluty i systemy pay-to-win mają działać jak mechanizmy hazardowe, co potwierdzają liczne raporty psychologiczne.
Posłowie chcą więc, aby te elementy były zakazane wobec nieletnich. Platformy gamingowe musiałyby podporządkować się przepisom, które dotychczas dotyczyły głównie usług społecznościowych.
Osobny fragment rezolucji dotyczy generatywnej sztucznej inteligencji. Parlament wyraża głębokie zaniepokojenie nowymi technologiami, które mogą szkodzić małoletnim: deepfake’ami, botami „do towarzystwa”, narzędziami AI tworzącymi intymne obrazy bez zgody, czy agentami AI, którzy potrafią budować emocjonalne relacje z dziećmi.
UE również tutaj oczekuje szybkiej reakcji. Aktualizacja zasad bezpieczeństwa to podstawa, a na horyzoncie widać też możliwość wprowadzenia całkowicie nowych przepisów.

Zakaz social mediów – osobista odpowiedzialność zarządów
Jedna z najbardziej przełomowych propozycji może okazać się tą, którą Big Tech odczuje najmocniej. Parlament chce, aby w przypadku uporczywych naruszeń bezpieczeństwa i nieprzestrzegania zasad ochrony małoletnich, odpowiedzialność ponosili nie tylko pracownicy czy zespoły moderacyjne, ale także członkowie zarządów.
To podejście wzorowane na przepisach z Wielkiej Brytanii. W tym kraju kadra zarządzająca może odpowiadać nawet karnie za zaniedbania w ochronie użytkowników.
Rezolucja nie powstała w próżni – w kilku państwach można zaobserwować podobne działania. Dania wprowadziła social mediów dla osób poniżej 15 lat. Australia zastosowała podobne ograniczenia. Francja z kolei zapowiada dalsze zaostrzenie regulacji i określa social media mianem „Dzikiego Zachodu”.
Ursula von der Leyen chwali model australijski i przypomina, że to rodzice, a nie algorytmy, powinni kształtować doświadczenia dzieci.
Przeczytaj także: Widzisz za dużo treści AI na TikToku? Sprawdź, jak dostosować swój feed
Czy rezolucja zamieni się w realnie egzekwowane prawo?
Choć dokument jest niewiążący, w praktyce stanowi polityczną zapowiedź przyszłego prawa. Komisja Europejska ma przedstawić propozycje regulacji jeszcze w tym roku. Nikt nie ma wątpliwości, że unijny zakaz social mediów dla dzieci poniżej 16 lat jest coraz bardziej realny.
Parlament nie tylko wzywa do zmian, lecz także zapowiada mechanizmy odpowiedzialności, które mogą boleśnie uderzyć w zarządy wielkich firm. A to byłby prawdziwy przełom.
Reklama