Słowo „bot” może przywodzić na myśl pomocne chatboty, które pomagają w znajdowaniu informacji, wybieraniu produktów lub odtwarzaniu muzyki. Jednak odnosi się ono również do zautomatyzowanych programów zaprojektowanych w celu naśladowania ludzkiej aktywności w samolubnych celach. Ten artykuł obejmie tę ostatnią kategorię.

Złośliwe boty są wykorzystywane do promowania oszustw kryptowalutowych, konfrontacji z przeciwnikami politycznymi i bombardowania konkurentów negatywnymi recenzjami. Celują w osoby wpływowe, angażują się w cyberprzemoc i uczestniczą w oszustwach kliknięć, co powoduje roczne straty przekraczające 100 miliardów dolarów.

Te boty często podszywają się pod prawdziwych użytkowników platform mediów społecznościowych, takich jak Facebook, Telegram czy X. Manipulują opinią publiczną, rozpowszechniają dezinformację i teorie spiskowe oraz ingerują w politykę (jak widać w wyborach prezydenckich w USA w 2016 r.) i rynki finansowe, w tym kryptowaluty.

Trudno jest określić dokładną proporcję aktywności w mediach społecznościowych, którą reprezentują boty. Na przykład badania z 2017 r. wskazały, że około 9% użytkowników X to boty, a liczba ta wzrosła do ponad 15% do 2022 r. Jednak kierownictwo X twierdzi, że mniej niż 5% aktywnych użytkowników na ich platformie to boty.

Tysiące botów jest zorganizowanych w „botnety” (pochodzące od „robot” i „network”) lub „farmy botów”, jak nazywają je media. Sieci te są zarządzane przez kilka osób znanych jako „botmasterzy”. Symulują aktywność użytkowników, kłócąc się w komentarzach, lajkując posty i zwiększając liczbę obserwujących. Ostateczny cel zależy od motywów osób stojących za każdą konkretną farmą botów.

Promocja projektów lub tokenów

Znaczna część informacji w świecie kryptowalut jest kształtowana za pośrednictwem platformy mediów społecznościowych X. Entuzjaści kryptowalut często polegają na opiniach osób wpływających na opinię publiczną i autorytatywnych użytkowników i mogą stać się niezamierzonymi ofiarami szumu informacyjnego i FOMO. W tym krajobrazie zainteresowane strony wykorzystują farmy botów, aby stworzyć iluzję popularności, zaangażowania i pozytywnych nastrojów wobec wybranych przez siebie projektów, co prowadzi do masowych zakupów ich produktów, NFT lub innych aktywów.

W promocjach oszustw właściciele botnetów podkreślają częstotliwość wzmianek o projekcie i zasięg postów reklamowych. Stosują techniki inżynierii społecznej, w tym:

Wykorzystując liczne emotikony (rakiety, ognie, pioruny i pieniądze);

Pokazywanie wykresów przedstawiających znaczące wzrosty cen tokenów (nawet jeśli takie wzrosty są fikcyjne);

Porównanie projektu do udanych przypadków wykorzystania chciwości inwestorów.

Boty nie są używane wyłącznie do promowania oszustw tokenów. Tworzą również pozory zainteresowania dla legalnych, ale niedocenianych projektów. Ta strategia jest powszechnie stosowana przez właścicieli startupów kryptograficznych i twórców monet memowych.

Zapotrzebowanie na promocję projektu za pośrednictwem farm botów jest obsługiwane przez wyspecjalizowane firmy. Ci „mistrzowie naciągania” obsługują setki fałszywych kont, tworzą posty i piszą skrypty dialogów na czatach.

Jedna z takich firm oferuje swoim klientom miesięczną subskrypcję. Minimalny plan kosztuje 1399 USD, co obejmuje 250 codziennych wzmianek na czacie projektu, podczas gdy plan premium kosztuje 4449 USD, oferując 2000 wzmianek w 30 popularnych grupach i społecznościach.

Czy FTX używał botów?

W lipcu 2023 r. Network Contagion Research Institute (NCRI) przeanalizował ponad 3 miliony tweetów powiązanych z 18 kryptowalutami, które kiedyś były notowane na giełdzie FTX. Dane obejmowały okres od 1 stycznia 2019 r. do 27 stycznia 2023 r.

Badania wykazały, że zwiększona aktywność w mediach społecznościowych nie była spowodowana wyłącznie organiczną popularnością monet, ale raczej częścią strategicznej promocji tokenów FTX. Obejmowało to kryptowaluty takie jak BOBA, GALA, IMX, RNDR, SAND, SPELL i inne

Analiza NCRI miała na celu określenie zakresu autentycznych i nieautentycznych działań na platformie X związanych z tymi kryptowalutami, przy użyciu narzędzia Botometer, umożliwiającego wykrywanie zachowań przypominających boty.

Spośród 182 105 analizowanych unikalnych kont, 172 451 zostało ocenionych pod kątem cech botów. Te, które nie zostały ocenione, prawdopodobnie zostały już zawieszone. Ostatecznie 11 215 użytkowników zostało zidentyfikowanych jako boty, co stanowi około 6,5% całości. Pomimo ich stosunkowo niewielkiej liczby, promowane przez nich tweety stanowiły około 20% wszystkich analizowanych postów.

Obecność nieautentycznych wzmianek nie łączy się bezpośrednio z FTX. Aby lepiej zrozumieć ten związek, NCRI zbadało korelację między notowaniem tokena na giełdzie a wzrostem wyników kont podobnych do botów. Wyniki ujawniły, że aktywność botów stale wzrastała po rozpoczęciu handlu tokenem na FTX.

To badanie rzuca światło na problem botów społecznościowych w branży kryptowalut. Im większa liczba interesariuszy, tym większe prawdopodobieństwo napotkania nieautentycznych działań. W tym przypadku boty mogły być używane przez samą firmę FTX, projekty kryptowalutowe, osoby wpływowe lub przedstawicieli giełd DEX.

Wash Trading

Wash trading to rodzaj manipulacji rynkiem, w którym wolumeny obrotu są sztucznie zawyżane, aby stworzyć iluzję większej płynności niż w rzeczywistości. Ta strategia jest powszechnie stosowana w przypadku oszukańczych giełd, tokenów lub NFT. Właściciele przenoszą tokeny pomiędzy tysiącami kontrolowanych przez siebie portfeli, aby fałszywie sugerować popularność aktywów.

Boty odgrywają kluczową rolę w systemach wash trading, umożliwiając automatyczny handel i terminową sprzedaż tokenów, co przynosi korzyści oszustom.

Typowy model wash tradingu obejmuje cztery etapy:

Zasilanie portfeli A i B za pomocą kantorów offline, giełd zdecentralizowanych (DEX) lub mikserów, takich jak Tornado Cash. Pierwszym krokiem oszusta jest anonimowa konwersja pieniędzy na kryptowalutę.

Utworzenie tokena i dodanie płynności za pomocą portfela A w celu ustalenia wartości aktywów.

Dystrybucja środków z portfela B do tysięcy kontrolowanych adresów blockchain (botów) i zakup tokena stworzonego przez portfel A.

Tworzenie szumu wokół projektu poprzez wash trading, co prowadzi do sprzedaży tokenów nieświadomym inwestorom.

Oszuści często prowadzą wiele takich projektów jednocześnie, czekając, aż jeden z nich przyciągnie inwestycje, zanim wykorzystają uzyskane środki na tworzenie i zawyżanie wartości nowych projektów.

Ten schemat może być również używany do prania pieniędzy, ponieważ przepływ środków między różnymi portfelami i tokenami utrudnia wyśledzenie pierwotnego źródła. Podczas gdy kryptodetektywi, tacy jak ZachXBT, mogą być w stanie śledzić te ruchy, właściciele giełd offline — często ostatniego kroku w wypłacaniu „brudnych” pieniędzy — mają mniejsze szanse na powodzenie.

Polowanie na zrzuty powietrza

Polowanie na airdropy to metoda zarabiania w kryptowalucie poprzez wczesne angażowanie się w projekty. W 2024 r. użytkownicy otrzymywali airdropy od zkSync, Starknet i LayerZero za różne działania, takie jak wymiana tokenów, ukończenie zadań i zaangażowanie społeczności.

Aby skalować polowanie na airdropy, niektórzy entuzjaści kryptowalut uciekają się do multikont — tworząc setki kontrolowanych portfeli, które naśladują działania prawdziwych użytkowników. Te multikonta często działają jako boty, wykonując wstępnie zaplanowaną sekwencję.

Nawet najbardziej bezczelni łowcy czasami rezygnują z przebrań. Na przykład legendarny użytkownik LayerZero o imieniu Ruslan wybrał prostotę, numerując kolejno swoje konta: Ruslan002.eth, Ruslan003.eth, Ruslan004.eth itd.

Właściciele projektów naturalnie wolą nie nagradzać botów. Dlatego też są proaktywni w wykrywaniu i blokowaniu takich kont. Na przykład w tym roku dyrektor generalny LayerZero Bryan Pellegrino zainicjował znaczące polowanie na sybil, gdzie z 5,2 miliona użytkowników L0 tylko 1,28 miliona otrzymało zrzut, identyfikując co najmniej 800 000 jako potencjalnie napędzane przez boty adresy.

Metody wykrywania botów społecznościowych

Wykrywanie prawdziwych użytkowników z botów społecznościowych jest kluczowe dla zachowania integralności platform mediów społecznościowych. W związku z tym platformy takie jak Facebook, X i Instagram stosują różne metody identyfikacji botów, od ręcznych kontroli po zaawansowane rozwiązania oparte na sztucznej inteligencji.

Wczesne wykrywanie zazwyczaj opiera się na łatwych do zaobserwowania wzorcach zachowań:

Aktywność na koncie: boty mają tendencję do częstszego wysyłania wiadomości i większej aktywności w porównaniu do prawdziwych użytkowników.

Metadane konta: Boty często mają niezwykle wysoki stosunek liczby obserwujących do liczby obserwujących i są zwykle powiązane z niedawno utworzonymi kontami.

Treść: boty generują powtarzalną treść, używają identycznych słów kluczowych lub czerpią z ograniczonej liczby źródeł.

Zaawansowane boty stały się bieglejsze w omijaniu tych początkowych strategii wykrywania. Co więcej, te metody często dawały fałszywe wyniki pozytywne — prawdziwi użytkownicy byli błędnie identyfikowani jako boty i odwrotnie. To wyzwanie skłoniło do opracowania bardziej zaawansowanych technologii wykrywania botów, w tym głębokiego uczenia się i sieci neuronowych.

Sieci neuronowe splotowe (CNN) są wykorzystywane do analizy treści tekstowych i ekstrakcji złożonych cech z sekwencji słów lub znaków. Rekurencyjne sieci neuronowe (RNN) i sieci pamięci długo-krótkoterminowej (LSTM) są wykorzystywane do analizy zależności i wzorców w treści. Sieci neuronowe grafów (GNN) są stosowane do modelowania struktury sieci i interakcji między użytkownikami.

Ostatnie przemyślenia

Zastosowanie botów wykracza poza metody wykrywania opisane w tym artykule. Zakres ich działań jest ograniczony jedynie kreatywnością i celami ich kontrolerów. Na przykład boty mogą być również wykorzystywane do ataków DDOS, blokowania kont influencerów lub sztucznego zawyżania liczby obserwujących. To powiązanie botów z przeważnie destrukcyjnymi działaniami podkreśla ciągłe wyzwanie, jakie stanowią.

Boty prawdopodobnie pozostaną stałym elementem Internetu. Ponadto, w miarę rozwoju sztucznej inteligencji, ich możliwości staną się bardziej wyrafinowane. Będą w stanie autonomicznie odpowiadać na komentarze, odczytywać emocje innych i rozumieć kontekst postów.

Aby się zabezpieczyć, filtruj otrzymywane informacje, stosuj myślenie krytyczne i polegaj na własnych osądach. Takie podejście pomoże Ci upewnić się, że żadna farma botów nie będzie mogła wpłynąć na Twoje decyzje.