Prezentowanie coraz bardziej trafnych wyników użytkownikom to wół roboczy Google. W tym celu pod koniec kwietnia wyszukiwarka ogłosiła uruchomienie projektu „Project Owl”. Jego celem? Walcz z widocznością fałszywych wiadomości na stronach wyników wyszukiwania.
Aby ograniczyć narażenie internautów na dezinformację, Google postawił na trzy czynniki:
- Ulepszenie algorytmu
- Opinie użytkowników na temat sugestii wyszukiwania
- Lepiej wyszkoleni oceniający jakość
Ewolucja algorytmu
Po pierwsze, inżynierowie amerykańskiego silnika wzbogacili algorytm, dzięki czemu daje on pierwszeństwo najbardziej jakościowym wynikom. Konkretnie, Google wyróżni strony z witryn o większym autorytecie, zaufaniu i ostatnio opublikowane. Nie ma wątpliwości, że złe wiadomości dotyczą także bardzo dużych platform, które nie cieszą się dużym zainteresowaniem, chociaż Gary Illes twierdził, że jest odwrotnie.
Ocena użytkownika
Następnie firma Montain View zamierza polegać na wsparciu swoich użytkowników. Te ostatnie są w rzeczywistości zapraszane do „zgłaszania nieodpowiednich prognoz” zaproponowanych przez silnik wyszukiwarki, po napisaniu pierwszych liter żądania. Słynne „Polecane fragmenty” również stały się w ostatnich miesiącach przedmiotem krytyki jakości dostarczanej przez wyszukiwarkę.
Użytkownicy Google mają możliwość komentowania prezentowanych im wyników, zawsze w celu stałego poprawienia ich trafności.
Bardziej wykwalifikowani oceniający jakość w obliczu dezinformacji w wynikach
Te wyniki ewoluują również dzięki opiniom „Quality Raters”, pracowników Google, którzy pracują nad identyfikacją treści niskiej jakości. Wytyczne, które stosują, ewoluowały, dzięki czemu są w stanie lepiej wykrywać strony, które nie powinny być prezentowane w pierwszych wynikach wyszukiwania. Należą do nich szokujące treści lub teorie spiskowe, które nie odpowiadają w odpowiedni sposób na pytania użytkowników.