X

Zapisz się na darmowy newsletter SOCIALPRESS

Dlaczego warto się zapisać
Nasz newsletter subskrybuje już 15 000 osób!

Uprzedzenia i stereotypy – ciemna strona generatywnych modeli AI

Generatywne modele sztucznej inteligencji budzą niepokój ze względu na skłonność do generowania szkodliwych i dezinformujących treści. Dlaczego narzędzia takie jak ChatGPT powielają stereotypy?

Uprzedzenia i stereotypy – ciemna strona generatywnych modeli AIźródło: shutterstock.com

reklama


Abeba Birhane, ekspertka ds. zaufanej sztucznej inteligencji oraz psycholożka Celeste Kidd wyraziły swoje obawy dotyczące rosnącego wykorzystania generatywnych modeli sztucznej inteligencji (AI). W artykule opublikowanym w czasopiśmie Science omówiono potencjalne zagrożenia związane z powszechnym stosowaniem tych modeli.

Generatywne modele AI kontra rzeczywistość

W ostatnich miesiącach generatywne modele sztucznej inteligencji takie jak ChatGPT, Google’s Bard i Midjourney zdobywają coraz większą popularność i są coraz częściej wykorzystywane do celów prywatnych czy zawodowych. Jednak z wielu źródeł płyną doniesienia, iż modele te generują treści zawierające uprzedzenia i negatywne stereotypy oraz rozpowszechniają informacje, które wydają się prawdziwe, ale takie nie są.

Narzędzia te były najprawdopodobniej szkolone na podstawie danych zawierających uprzedzenia rasowe, płciowe i klasowe. To właśnie one wpływają na wyniki tych modeli, które odtwarzają i wzmacniają szkodliwe schematy. Co gorsza, narzędzia AI regularnie tworzą i rozpowszechniają informacje będące nieprawdziwymi. Wskutek generowania takich treści najbardziej cierpią grupy zmarginalizowane.

Wraz z coraz większą popularnością i powszechnym stosowaniem modeli sztucznej inteligencji istnieje ryzyko, że fałszywe informacje będą miały coraz większy wpływ na nasze postrzeganie rzeczywistości. Modele AI uczą się na podstawie danych zebranych z internetu, który sam w sobie może być źródłem informacji pełnych stereotypów i błędów. Te same dane są wykorzystywane do treningu kolejnych generatywnych modeli sztucznej inteligencji. Powoduje to powielanie i szerzenie się uprzedzeń oraz niesprawdzonych informacji.

Kto pyta, nie błądzi?

Chociaż niektórzy twórcy narzędzi AI przyznają, że są świadomi istnienia tych problemów, nie podejmują wystarczających działań, aby je rozwiązać. Sugerują jedynie, że powinniśmy korzystać z tych systemów, aby znaleźć kolejne nieścisłości. Niestety, nawet po ich wykryciu, naprawa i pozbycie się szkodliwych treści będzie trudnym i żmudnym zadaniem. Dodatkowo obecna architektura modeli AI nie pozwala im odróżnić prawdy od fikcji, co jeszcze bardziej pogłębia ten problem.

Profesor Birhane podkreśla, że istnieją fundamentalne różnice w komunikacji z drugą osobą a sztuczną inteligencją. Ludzie wyrażają niepewność za pomocą zwrotów takich jak „myślę” czy „moim zdaniem”. W rozmowie między ludźmi występują również opóźnienia w odpowiedziach, poprawki i niepłynność mowy. Natomiast modele AI generują przekonujące komunikaty, nie wykazując wątpliwości – nawet jeśli stworzona treść zawiera błędy. Badania wskazują, że użytkownicy narzędzi AI najczęściej szukają odpowiedzi, gdy są niepewni, a przy tym otwarci na nowe informacje. Jednak po otrzymaniu odpowiedzi, ciekawość i chęć poszukiwania potwierdzenia prawdziwości wygenerowanego tekstu maleją.

Jak walczyć z dezinformacją?

We wspomnianym artykule przywołany został przykład systemu oceny ryzyka oparty na algorytmach sztucznej inteligencji. Jest on wykorzystywany przez sędziów do ustalania wyroków dla oskarżonych. Niestety, system ten ma tendencje do przypisywania wyższych wskaźników ryzyka czarnoskórym osobom w porównaniu do białych osób, mimo posiadania przez nich identycznych historii kryminalnych.

Profesor Birhane wyraża obawy związane z tym, że sędziowie zaczną dostosowywać praktyki wydawania wyroków w taki sposób, aby zgodzić się z prognozami algorytmów. Mechanizm ten, oparty na uczeniu statystycznym, może prowadzić do przekonania sędziego, że osoby o czarnoskórej skórze są bardziej skłonne do ponownego popełnienia przestępstwa. Jest to tylko jeden z wielu przykładów, gdzie sztuczna inteligencja opiera swoje wyniki na stereotypowych treściach.

Autorki publikacji podkreślają pilną potrzebę współpracy między psychologami a ekspertami ds. uczenia maszynowego w celu zrozumienia rozmiaru problemu i opracowania rozwiązań. Konieczne jest również dokładne zbadanie wpływu modeli AI na ludzkie przekonania i uprzedzenia. Na szczególną uwagę zasługują grupy marginalizowane, które są najbardziej narażone na fałszywe informacje i negatywne stereotypy.

Reklama

Newsletter

Bądź na bieżąco!
Zapisz się na bezpłatny newsletter.

free newsletter templates powered by FreshMail