X

Zapisz się na darmowy newsletter SOCIALPRESS

Dlaczego warto się zapisać
Nasz newsletter subskrybuje już 15 000 osób!

Meta ukryła badania pokazujące, że Instagram i Facebook szkodzą zdrowiu psychicznemu

Ujawnione akta pokazują, że Meta przerwała własne badania po tym, jak wykazały one negatywny wpływ Facebooka i Instagrama na zdrowie psychiczne użytkowników.

Meta ukryła badania pokazujące, że Instagram i Facebook szkodzą zdrowiu psychicznemuźródło: shutterstock.com

reklama






Meta po raz kolejny znalazła się w centrum kontrowersji. Ujawnione akta sądowe z federalnego postępowania w Kalifornii pokazują, że firma miała wewnętrzne dowody na to, że jej produkty mogą pogarszać zdrowie psychiczne użytkowników. I zdecydowała się je ukryć.

Najnowsze dokumenty z pozwu zbiorowego, w którym uczestniczy ponad 1800 powodów (w tym szkoły, rodzice i stany USA) pokazują obraz firmy, która latami stawiała wzrost i zaangażowanie ponad bezpieczeństwem.

Project Mercury: badania, które nigdy nie ujrzały światła dziennego

Najważniejszym elementem ujawnionych dokumentów jest Project Mercury, badanie przeprowadzone w 2020 roku we współpracy z firmą Nielsen. Jego celem było sprawdzenie, jak na dobrostan psychiczny wpłynie „wyłączenie” Facebooka na tydzień.

Wyniki okazały się jednoznaczne. Osoby, które całkowicie przestały korzystać z platformy, odnotowały spadek odczuwanego lęku, depresji, samotności i porównań społecznych. Innymi słowy, użytkownicy czuli się lepiej bez Facebooka.

Zamiast wykorzystać wyniki do poprawy produktu lub przedstawić je opinii publicznej, Meta miała przerwać kolejne etapy badań i uznać, że ich rezultaty są „skażone negatywną narracją medialną”. Tymczasem wewnętrzna korespondencja pokazuje, że pracownicy zapewniali kierownictwo o prawidłowości metodologicznej. Jeden z badaczy miał porównać potencjalne ukrywanie tych danych do praktyk stosowanych przez przemysł tytoniowy.

Przeczytaj także: Meta i TikTok pod lupą Brukseli. Komisja Europejska zarzuca gigantom naruszenie przepisów DSA

Zasięgi ponad bezpieczeństwo: zarzuty o systemowe zaniedbania

Plik sądowy, w którym ujawniono dokumenty, zawiera setki szczegółowych zarzutów dotyczących zarządzania bezpieczeństwem młodych użytkowników w Mecie. Wskazują one na powtarzalny wzorzec: funkcje bezpieczeństwa projektowano tak, by były nieskuteczne, a rekomendacje ekspertów ignorowano, jeśli mogły negatywnie wpłynąć na statystyki zaangażowania.

Według zeznań Vaishnavi Jayakumar, byłej szefowej ds. bezpieczeństwa i dobrostanu na Instagramie, Meta stosowała tzw. politykę „17 przewinień” wobec kont angażujących się w handel ludźmi. Zgodnie z tą zasadą konto mogło złamać zasady 16 razy, zanim zostało usunięte. W branży, gdzie zwykle obowiązuje polityka „zero tolerancji”, był to szokująco wysoki próg.

Inne ujawnione dokumenty sugerują, że:

  • algorytmy optymalizowane pod nastoletnie zaangażowanie częściej promowały treści szkodliwe,
  • Meta wstrzymywała testy funkcji bezpieczeństwa, bo mogły zmniejszyć wzrost,
  • wewnętrzne inicjatywy mające ograniczyć kontakt dorosłych drapieżników z dziećmi były opóźniane przez lata,
  • kierownictwo firmy miało regularnie odsuwać temat bezpieczeństwa w hierarchii priorytetów.

W jednej z wymienionych wiadomości Mark Zuckerberg miał napisać, że ochrona dzieci nie należy do jego głównych priorytetów. Szef Mety wolał „skupiać się bardziej” na innych obszarach, m.in. budowaniu metaverse.

Przekreślony symbol Meta na telefonie
Zatajone badania pokazywały, że korzystniejszy dla zdrowia jest brak Facebooka i Instagrama / fot. shutterstock.com

Meta mówi: „badania były wadliwe”

W odpowiedzi na zarzuty Meta argumentuje, że badanie Project Mercury przerwano z powodu błędów metodologicznych. Ponadto firma zarzeka się, że przez lata „wprowadzała realne zmiany” w zakresie bezpieczeństwa młodych użytkowników. Rzecznik Meta przekonuje, że dokumenty powoda cytują wyrwane z kontekstu opinie, a prezentowany obraz ma niewiele wspólnego z faktycznymi działaniami firmy.

Jednak powodowie stoją na stanowisku, że Meta przez lata świadomie minimalizowała ryzyka. Przedstawiciele firmy w kontaktach z Kongresem mieli zaprzeczać istnieniu dowodów na wpływ platformy na pogorszenie zdrowia psychicznego nastolatek. Mimo że takie dowody istniały wewnątrz firmy.

Przeczytaj także: Polska planuje wprowadzić podatek cyfrowy od 2027 roku. Rząd uderzy w gigantów technologicznych

Pozew obejmuje też Google, TikTok i Snapchata

Sprawa ma charakter wielowątkowy. Pozywani są również Google, TikTok i Snapchat, czyli firmy, które zdaniem prawników również ukrywały znane im ryzyka, pozwalały nastolatkom zakładać konta mimo ograniczeń wiekowych i nie reagowały wystarczająco szybko na poważne naruszenia.

Jednym z zarzutów jest także próba wpływania na organizacje związane z dziećmi. Dokumenty wskazują, że TikTok miał sponsorować National PTA, a następnie chwalić się wewnętrznie możliwością kształtowania publicznych stanowisk organizacji.

Waga dwuszalowa symbolizująca prawo
To nie pierwsza sprawa Big Techów, która trafia przed sąd w ostatnim czasie / fot. shutterstock.com

Kontekst regulacyjny: kolejny dowód na konieczność interwencji?

Ujawnienie dokumentów następuje w ważnym momencie. W ostatnich latach rośnie globalna presja na reformę platform społecznościowych. Potrzebne są regulacje dotyczące AI, przepisy o ochronie nieletnich oraz inicjatywy związane z przejrzystością algorytmiczną.

W USA trwa debata nad zaostrzeniem odpowiedzialności prawnej platform, natomiast Europa wdraża kolejne elementy Aktu o Usługach Cyfrowych (DSA), które mogą zwiększyć obowiązki w zakresie moderacji, raportowania zagrożeń i przejrzystości algorytmów.

Sprawa Meta może stać się katalizatorem nowych inicjatyw regulacyjnych, zwłaszcza w obszarze ochrony zdrowia psychicznego młodzieży.

Meta i inne firmy przed sądem?

Pierwsza rozprawa zaplanowana jest na 26 stycznia 2026 roku. Jeśli sąd dopuści większość dowodów, może to być jedno z najważniejszych postępowań dotyczących odpowiedzialności Big Techu od czasów spraw antymonopolowych.

Sprawa będzie pewnie ciągnąć się jeszcze długo, ale już teraz brutalnie przypomina użytkowników, że platformy, z których korzystają codziennie, mogą mieć znacznie większy wpływ na ich dobrostan, niż się wydaje. A zamiatanie wewnętrznych danych pod dywan to niestety ciągle stosowana praktyka w największych korporacjach.





Reklama


Leave a Reply

Your email address will not be published.

Reklama


[FM_form id="1"]