X

Zapisz się na darmowy newsletter SOCIALPRESS

Dlaczego warto się zapisać

Nasz newsletter subskrybuje już 12 500 osób!

Facebook walczy z przestępczością w transmisjach na żywo

Facebook wprowadza działania, które mają ograniczyć umieszczanie negatywnych treści na portalu. Wiąże się to przede wszystkim z rosnącą liczbą przestępstw i samookaleczeń transmitowanych na żywo przez użytkowników.

Facebook walczy z przestępczością w transmisjach na żywofot. bank zdjęć pixabay.com

Facebook pomimo swojego założenia jako medium łączące ludzi i pozwalające na wymianę swoich poglądów, stwarza również wiele negatywnych zachowań. To, co dla jednych jest doskonałą perspektywą poznania odmiennych opinii, dla innych jest przyczyną do rozpowszechniania mowy nienawiści, dzielenia się obrazami przemocy, przestępczości, a także do wykorzystywania tej platformy w nieodpowiedni do tego sposób.

Stworzenie przez Facebooka funkcji prowadzenia transmisji live, dało użytkownikom ciekawe możliwości. Niestety nie wszyscy wykorzystali nową opcję w odpowiedni sposób. Na początku tego roku szwedzka policja aresztowała trzech mężczyzn, po tym jak rozpoczęli transmisję na żywo. Zamknięta grupa przez kilka godzin mogła oglądać zbiorowy gwałt. Nie jest to niestety odosobniony przypadek. W ostatnim czasie Facebook otrzymał wiele doniesień o emitowaniu w czasie rzeczywistym własnych samobójstw, morderstw i innego rodzaju okrutnych przestępstw.

Jest to duży problem zwłaszcza ze względu na ogromny zasięg Facebooka. Niedawno Mark Zuckerberg wyraził swoje przerażenie dotyczące emitowania tego rodzaju treści. Portal reaguje co prawda na takie zdarzenia, ale dopiero po zgłoszeniu ich przez użytkowników. W przeciwnym razie, firma nie mogła dotąd zapobiec rozprzestrzenianiu się negatywnych materiałów.

Mark Zuckerberg w zeszłą środę w swoim poście na Facebooku napisał, że dokłada wszelkich starań, aby zbudować bezpieczną społeczność na portalu. Zapewnił, że firma pracuje nad opracowaniem narzędzi do łatwiejszego zgłaszania video zawierających negatywne treści.

CEO Facebooka ogłosił również, że firma podejmie działania mające na celu rozwiązanie tego typu przypadków. W tym celu planuje między innymi rozszerzyć zespół odpowiedzialny za moderowanie treści z 4500 do 7000 osób. Grupa ta jest niejako uzupełnieniem uprzednio ogłoszonych działań związanych z prowadzeniem sztucznej inteligencji, która ma na celu wykrycie wzorców zachowań, aby wcześniej prowadzić środki zapobiegawcze.

Facebook chce w ten sposób nie tylko usuwać nieodpowiednie materiały, ale również nieść pomoc osobom, które padły ofiarą przestępstwa lub myślą o popełnieniu samobójstwa. Facebook zapowiada również wprowadzenie takich środków, które umożliwią zawiadomienie odpowiednich służb, w celu powstrzymania przestępców.

Newsletter

Bądź na bieżąco z najświeższymi informacjami. Zapisz się na bezpłatny newsletter.

free newsletter templates powered by FreshMail