Spam, jak wiemy, towarzyszy nam od samego początku. Rozpiętość treści przed ChatGPT wynosiła prawie dwa procent wyników wyszukiwania, ale teraz dynamika znacznie się zmieniła. Robo-spam, czyli spam generowany przez sztuczną inteligencję, jest wszędzie i obecnie stanowi dziesięć procent wyników.

Nie chodzi tu tylko o treść typu clickbait, ale o sztuczną inteligencję, która ma znacznie większą szansę na przejście przez wiele warstw oraz jest bardzo łatwa i tańsza w produkcji. Google usuwa teraz strony ręcznie z listy, co również ma swoje konsekwencje, ponieważ Google traci także przychody z reklam. Ktoś mógłby pomyśleć: dlaczego Google wydaje własne pieniądze na usuwanie tych witryn? Cóż, to znowu gra o dochody.

Spam AI stanowi wyraźne zagrożenie dla Google

Istnieje duża szansa, że ​​ta tania treść odepchnie użytkowników od Google, ponieważ mają już dość śmieciowych kliknięć sprzed AI w sponsorowanych wynikach wyszukiwania. Sieć była kiedyś miejscem, w którym można było odkryć rzeczy spoza wielkich nazwisk, a teraz spam oparty na sztucznej inteligencji stał się zagrożeniem dla całej sieci. Filtrowanie i zatrzymywanie tego typu treści jest trudne.

źródło: Searchengineland.

Usunięcie sztucznej inteligencji i spamerów AI mogłoby być jednym z rozwiązań poprzez automatyzację procesu identyfikowania oszustów, ale z tym również wiążą się problemy. Pierwszym bólem głowy jest to, że sztuczna inteligencja wciąż się rozwija, a generowane przez nią treści będą coraz bardziej dopracowane, więc wygranie z nią nie jest łatwe, ponieważ może rozwinąć cechy umożliwiające ominięcie zautomatyzowanego systemu.

Innym problemem jest jego koszt, ponieważ wymaga dużych zasobów i ogromnych dochodów, jak pójście po pijanemu na stół z wysokimi rolkami w kasynie i może skończyć samotnie na Księżycu. Pamiętacie śmiałe twierdzenie miliardera? Bill Gates obiecał, że świat pozbędzie się spamu do 2006 roku, ale nawet miliarder nie jest w stanie tego zrobić dobrze.

Sytuacja jest gorsza dla wszystkich

Sytuacja nie jest dobra dla Google i innych, którzy chcą zintegrować sztuczną inteligencję z wynikami wyszukiwania i interfejsem użytkownika. Dlaczego? Ponieważ system będzie musiał zostać przeszkolony na danych, które są już do skrajności zanieczyszczone, i znowu problem dystrybucji przychodów. Nadal nie ma jasnego pojęcia, jak to wszystko będzie działać, ponieważ wynikiem będzie krótki raport, a nie lista linków. Wiemy też, że Google zarabia, gdy klikamy w linki, a nie gdy czytamy tekst na jego stronie internetowej.

źródło: Statista.

Jak zatem zostaną zintegrowane reklamy? Być może znajdzie się w krótkim pisemnym raporcie, ale odbierze to dostawcom treści część przychodów i sprawi, że będą cierpieć. Dla nikogo nie będzie to sytuacja zwycięska.

Google rozpoczął swoją podróż z dobrym zestawem algorytmów i przejrzystą, idealną witryną. Wiedzieli, jakie są dobre strony, ich strukturę i inne elementy. Witryny, które miały lepszą jakość, uzyskały większe przychody i ekspozycję, a Google również zarobił na nich więcej. Jednak uczciwa gra zwykle nie jest łatwa, dlatego jest wielu, którzy chcą oszukać system. W tym przypadku przychodami dzielą się oszuści i oczywiście Google. Dało to Google i tym podobnym podmiotom zasoby do oszukiwania całego systemu dla własnej korzyści, ale nie było to sprawiedliwe dla innych.

Jeśli więc sztuczna inteligencja oszukuje Google, jakie są opcje? Witryny muszą z góry umieścić oświadczenie o ochronie prywatności dotyczące plików cookie i innych rzeczy, teraz muszą także posiadać oświadczenie o zapewnieniu jakości. Na przykład flagi dotyczące treści AI, marketingu lub własności. Ale pierwszą rzeczą jest to, jak uczciwi są ci giganci w przestrzeganiu własnych zasad. Będą musieli nadać priorytet dobrym treściom i przestrzegać zasad, blokować oszustów, jeśli zostaną uznani za winnych, i nigdy więcej nie pokazywać ich użytkownikom.

Oryginalną historię można zobaczyć tutaj.