reklama
To już nie jest pierwszy raz, kiedy to algorytmy Facebooka postanawiają obrażać ludzi ze względu na ich pochodzenie czy też rasę. Jak widać, gigant nie do końca zatem potrafi poradzić sobie z tym problemem. Dlatego też, po raz kolejny zdecydował się zabrać głos w tej sprawie i po prostu – przeprosić wszystkich, którzy zobaczyli ten komentarz.
Zaskakująca etykieta
Problem z rasizmem algorytmów Facebooka ma swój początek w dniu, kiedy to Daily Mail opublikowało dokument, w którym występują osoby czarnoskóre. Po jego obejrzeniu, niektórzy widzowie mogli zobaczyć pytanie: Czy chcesz zobaczyć więcej filmów o naczelnych? I tu zawrzało! Zresztą, bardzo słusznie! Owi naczelni, o których pyta Facebook, to po prostu małpy. Zatem pytanie to, wydaje się być nie tyle sugerujące, co wręcz uwłaczające dla osób o ciemnym kolorze skóry. W tej sprawie oczywiście zawinił algorytm, który właśnie w ten sposób odczytał obraz, czyli w tym przypadku zdjęcie z czarnoskórą osobą, nadając jej etykietę. Błędną i bardzo obraźliwą.
Na całe wydarzenie, w dość szybkim czasie postanowił zareagować Facebook. Gdy tylko dowiedział się o istnieniu problemu, postanowił wyłączyć funkcję rekomendacji tematów. Niestety, było już za późno i spore grono osób zdążyło już zobaczyć treść komunikatu. Dlatego też, swoje stanowisko Facebook postanowił przedstawić w New York Times. Przyznał, że algorytmy nie są idealne i zawodzą, mimo ciągłych prac nad ich ulepszeniami. Przeprosił również każdą osobę, która zobaczyła to pytanie.
Nowoczesny, ale uprzedzony system
Wydawać by się mogło, że skoro Facebook korzysta z nowoczesnego systemu, a technologia wciąż się rozwija, wszystko powinno iść w jak najlepszym kierunku. I w większości przypadków rzeczywiście tak się dzieje. Jednak social media wyglądają tak, jakby nie były w stanie nadążać i zwracać uwagi na szczegóły. Owszem, pracy nad ulepszeniami systemu, np. w przypadku Facebooka, nie brakuje. Gigant cały czas szuka pomocy u licznych specjalistów, np. w dziedzinie świateł czy fotografii. Niestety, jak pokazują coraz to nowsze przykłady zachowań rasistowskich czy traktujących osoby wykluczone społecznie w sposób uwłaczający – metody te wciąż nie są wystarczające. Należy bowiem tu wspomnieć, że to nie jest pierwszy incydent tego typu, ze strony Facebooka. Jednym z głośniejszych, był chociażby ten, gdzie gigant usunął historyczne zdjęcia z Papui-Nowej Gwinei. Jako powód podał naruszenie kwestii bezpieczeństwa użytkowników.
Przypominamy też, że nie tak dawno, Federalna Komisja Handlu uznała taką reakcję ze strony AI, jako mogącą naruszać przepisy dotyczące ochrony konsumentów. Dlatego musimy wierzyć w pozytywne zmiany na Facebooku. Tym bardziej, że w tym przypadku każda ze stron chce tego samego – braku uprzedzeń.