reklama
Meta po raz kolejny znalazła się w centrum kontrowersji. Ujawnione akta sądowe z federalnego postępowania w Kalifornii pokazują, że firma miała wewnętrzne dowody na to, że jej produkty mogą pogarszać zdrowie psychiczne użytkowników. I zdecydowała się je ukryć.
Najnowsze dokumenty z pozwu zbiorowego, w którym uczestniczy ponad 1800 powodów (w tym szkoły, rodzice i stany USA) pokazują obraz firmy, która latami stawiała wzrost i zaangażowanie ponad bezpieczeństwem.
W artykule
Project Mercury: badania, które nigdy nie ujrzały światła dziennego
Najważniejszym elementem ujawnionych dokumentów jest Project Mercury, badanie przeprowadzone w 2020 roku we współpracy z firmą Nielsen. Jego celem było sprawdzenie, jak na dobrostan psychiczny wpłynie „wyłączenie” Facebooka na tydzień.
Wyniki okazały się jednoznaczne. Osoby, które całkowicie przestały korzystać z platformy, odnotowały spadek odczuwanego lęku, depresji, samotności i porównań społecznych. Innymi słowy, użytkownicy czuli się lepiej bez Facebooka.
Zamiast wykorzystać wyniki do poprawy produktu lub przedstawić je opinii publicznej, Meta miała przerwać kolejne etapy badań i uznać, że ich rezultaty są „skażone negatywną narracją medialną”. Tymczasem wewnętrzna korespondencja pokazuje, że pracownicy zapewniali kierownictwo o prawidłowości metodologicznej. Jeden z badaczy miał porównać potencjalne ukrywanie tych danych do praktyk stosowanych przez przemysł tytoniowy.
Przeczytaj także: Meta i TikTok pod lupą Brukseli. Komisja Europejska zarzuca gigantom naruszenie przepisów DSA
Zasięgi ponad bezpieczeństwo: zarzuty o systemowe zaniedbania
Plik sądowy, w którym ujawniono dokumenty, zawiera setki szczegółowych zarzutów dotyczących zarządzania bezpieczeństwem młodych użytkowników w Mecie. Wskazują one na powtarzalny wzorzec: funkcje bezpieczeństwa projektowano tak, by były nieskuteczne, a rekomendacje ekspertów ignorowano, jeśli mogły negatywnie wpłynąć na statystyki zaangażowania.
Według zeznań Vaishnavi Jayakumar, byłej szefowej ds. bezpieczeństwa i dobrostanu na Instagramie, Meta stosowała tzw. politykę „17 przewinień” wobec kont angażujących się w handel ludźmi. Zgodnie z tą zasadą konto mogło złamać zasady 16 razy, zanim zostało usunięte. W branży, gdzie zwykle obowiązuje polityka „zero tolerancji”, był to szokująco wysoki próg.
Inne ujawnione dokumenty sugerują, że:
- algorytmy optymalizowane pod nastoletnie zaangażowanie częściej promowały treści szkodliwe,
- Meta wstrzymywała testy funkcji bezpieczeństwa, bo mogły zmniejszyć wzrost,
- wewnętrzne inicjatywy mające ograniczyć kontakt dorosłych drapieżników z dziećmi były opóźniane przez lata,
- kierownictwo firmy miało regularnie odsuwać temat bezpieczeństwa w hierarchii priorytetów.
W jednej z wymienionych wiadomości Mark Zuckerberg miał napisać, że ochrona dzieci nie należy do jego głównych priorytetów. Szef Mety wolał „skupiać się bardziej” na innych obszarach, m.in. budowaniu metaverse.

Meta mówi: „badania były wadliwe”
W odpowiedzi na zarzuty Meta argumentuje, że badanie Project Mercury przerwano z powodu błędów metodologicznych. Ponadto firma zarzeka się, że przez lata „wprowadzała realne zmiany” w zakresie bezpieczeństwa młodych użytkowników. Rzecznik Meta przekonuje, że dokumenty powoda cytują wyrwane z kontekstu opinie, a prezentowany obraz ma niewiele wspólnego z faktycznymi działaniami firmy.
Jednak powodowie stoją na stanowisku, że Meta przez lata świadomie minimalizowała ryzyka. Przedstawiciele firmy w kontaktach z Kongresem mieli zaprzeczać istnieniu dowodów na wpływ platformy na pogorszenie zdrowia psychicznego nastolatek. Mimo że takie dowody istniały wewnątrz firmy.
Przeczytaj także: Polska planuje wprowadzić podatek cyfrowy od 2027 roku. Rząd uderzy w gigantów technologicznych
Pozew obejmuje też Google, TikTok i Snapchata
Sprawa ma charakter wielowątkowy. Pozywani są również Google, TikTok i Snapchat, czyli firmy, które zdaniem prawników również ukrywały znane im ryzyka, pozwalały nastolatkom zakładać konta mimo ograniczeń wiekowych i nie reagowały wystarczająco szybko na poważne naruszenia.
Jednym z zarzutów jest także próba wpływania na organizacje związane z dziećmi. Dokumenty wskazują, że TikTok miał sponsorować National PTA, a następnie chwalić się wewnętrznie możliwością kształtowania publicznych stanowisk organizacji.

Kontekst regulacyjny: kolejny dowód na konieczność interwencji?
Ujawnienie dokumentów następuje w ważnym momencie. W ostatnich latach rośnie globalna presja na reformę platform społecznościowych. Potrzebne są regulacje dotyczące AI, przepisy o ochronie nieletnich oraz inicjatywy związane z przejrzystością algorytmiczną.
W USA trwa debata nad zaostrzeniem odpowiedzialności prawnej platform, natomiast Europa wdraża kolejne elementy Aktu o Usługach Cyfrowych (DSA), które mogą zwiększyć obowiązki w zakresie moderacji, raportowania zagrożeń i przejrzystości algorytmów.
Sprawa Meta może stać się katalizatorem nowych inicjatyw regulacyjnych, zwłaszcza w obszarze ochrony zdrowia psychicznego młodzieży.
Meta i inne firmy przed sądem?
Pierwsza rozprawa zaplanowana jest na 26 stycznia 2026 roku. Jeśli sąd dopuści większość dowodów, może to być jedno z najważniejszych postępowań dotyczących odpowiedzialności Big Techu od czasów spraw antymonopolowych.
Sprawa będzie pewnie ciągnąć się jeszcze długo, ale już teraz brutalnie przypomina użytkowników, że platformy, z których korzystają codziennie, mogą mieć znacznie większy wpływ na ich dobrostan, niż się wydaje. A zamiatanie wewnętrznych danych pod dywan to niestety ciągle stosowana praktyka w największych korporacjach.
Reklama