reklama
Internet dla wielu – uczniów, studentów, pracowników, nawet dziennikarzy, jest dziś jednym z podstawowych, jeśli nie tym najważniejszym, źródłem informacji. Szybki przepływ wiadomości, wielość źródeł, łatwość dostępu do danych – wszystko to sprawia, że sięgamy do niego w każdej sytuacji, gdy chcemy się o czymś dowiedzieć, coś sprawdzić czy przeczytać. A to co znajdziemy w wyszukiwarce, zwłaszcza na pierwszych stronach bardzo często traktujemy jako pewnik.
Znaleźć dziś informacje nie jest trudno, trudniej je odpowiednio przeanalizować, zrozumieć, ocenić ich wiarygodność i użyteczność. Te właśnie umiejętności powinni rozwijać w sobie Internauci, jeśli chcą świadomie korzystać z możliwości jakie daje im sieć.
A co jeśli nie będą musieli tego czynić? Co jeśli to wyszukiwarka zadecyduje o prawdziwości przytaczanych w sieci treści? Właśnie nad tą kwestią pochylili się badacze Google’a, którzy w swoich rozważaniach uznali, że byliby w stanie stworzyć algorytm, który rozróżniałby internetowy fałsz od prawdy. Cała analiza przytoczona została w artykule o szacowaniu wiarygodności źródeł internetowych.
W uproszczeniu mechanizm, na który powołują się badacze miałby sprawić, że dwie bazy informacji gromadzone przez Google’a wzajemnie by sprawdzały prawdziwość przechowywanych wewnątrz nich danych. O jakich bazach mowa? Jedna to Knowledge Graph, która zawiera informacje wprowadzane przez ludzi. Druga zaś to Knowledge Vault, która w sposób zautomatyzowany gromadzi dostępne w sieci dane. Są one pobierane w formie tak zwanego knowledge triples. System ten pobiera trzy powiązane ze sobą określenia. Pierwszym jest przedmiot czy pojęcie, drugim jego cecha, a trzecim szczegółowe określenie tej cechy. Fakty dostępne w drugiej bazie miałyby więc identyfikować prawdziwość informacji dostępnych w sieci.
Jednak nawet już w fazie teoretycznych rozważań naukowcy dostrzegają w tym mechanizmie wiele trudności i problemów. Ponieważ dane byłyby zasysane automatycznie, przez roboty Google, należałoby się liczyć z możliwościami występowania błędów w gromadzeniu informacji uznawanych za fakty. Trudne byłoby również uwiarygodnienie niektórych źródeł informacji, z jakich czerpane są dane, przez co mogłyby one zostać wypaczone.
To dopiero jednak początki projektu. Może się okazać, że po dopracowaniu systemu większość z obecnie rozważanych problemów zniknie. A wtedy mielibyśmy pewność, że informacje zawarte w sieci to nie przypuszczenia, plotki czy kłamstwa, ale w pełni potwierdzone i prawdziwe dane. Pozostaną jednak takie problemy, których nawet najbardziej niezwykły algorytm nie rozwiąże. Takie jak zatracenie umiejętności indywidualnej analizy i oceny, czy bezmyślne przyjmowanie faktów dostępnych w sieci. Czy na pewno tak chcielibyśmy widzieć swoją przyszłość? A może już tak jest, a Google tylko w ten sposób znalazłoby lekarstwo na powielanie niesprawdzonych i nieprawdziwych informacji?