Zautomatyzowany system testowania bezpieczeństwa oparty na sztucznej inteligencji najwyraźniej dorównał wydajności wiodących ekspertów ds. cyberbezpieczeństwa w niedawnym eksperymencie, rozwiązując taką samą liczbę „punktów odniesienia” testów penetracyjnych w zaledwie 1,1% czasu, jaki zajęłoby to jego ludzkim odpowiednikom.

5 sierpnia założyciel i dyrektor generalny XBOW, Oege de Moor, opublikował wyniki eksperymentu, w którym możliwości testów penetracyjnych XBOW AI zostały porównane z wynikami profesjonalnych testerów penetracyjnych, w skrócie „pentesterów”.

Test penetracyjny to autoryzowany, symulowany cyberatak na system komputerowy, przeprowadzany w celu oceny bezpieczeństwa tego systemu.

XBOW stworzył 104 nowatorskie testy porównawcze (termin ten oznacza realistyczne scenariusze bezpieczeństwa) obejmujące różne luki w zabezpieczeniach, zaprojektowane tak, aby nie dało się ich wykryć za pomocą wyszukiwarek internetowych.

Łącznie pięciu profesjonalnych testerów penetracyjnych z wiodących firm zajmujących się cyberbezpieczeństwem miało 40 godzin na ich rozwiązanie.

Wiodący pentester o pseudonimie „Principal 1” rozwiązał tyle samo zadań, co system AI. Jednak XBOW ukończył zadania w 28 minut, podczas gdy Principal 1 potrzebował na to 40 godzin.

„Dopiero co dowiedziałem się, że XBOW rozwiązało tyle samo problemów, co ja. Jestem w szoku. Spodziewałem się, że nie będzie w stanie rozwiązać niektórych wyzwań, z którymi się mierzyłem” – powiedział główny pentester Federico Muttis.

Pentester to specjalista ds. cyberbezpieczeństwa, który specjalizuje się w testowaniu bezpieczeństwa systemów komputerowych, sieci i aplikacji internetowych.

Pentesterzy to zazwyczaj hakerzy „white hat” lub „etyczni”, którzy wykorzystują te same narzędzia i techniki, co hakerzy złośliwi, ale w celach obronnych.

Przewagą sztucznej inteligencji nad ludzkim odpowiednikiem jest to, że może ona działać nieprzerwanie podczas tworzenia oprogramowania, w przeciwieństwie do rzadkich testów penetracyjnych wykonywanych przez człowieka.

de Moor wyjaśnił, że takie podejście „gwarantuje, że luki w zabezpieczeniach zostaną zidentyfikowane i naprawione, gdy system jest jeszcze w fazie rozwoju, na długo zanim osoby nieuczciwe zdążą je wykorzystać”.

Powiązane: Etyczni hakerzy dzielą się wskazówkami, jak chronić swoje kryptowaluty

Kilku ekspertów ds. bezpieczeństwa twierdzi, że postęp w testach bezpieczeństwa wspomaganych sztuczną inteligencją może okazać się ogromną korzyścią dla branży kryptowalut, która w tym roku padła ofiarą ataków hakerskich na kwotę przekraczającą 1,4 miliarda dolarów.

Dyrektor ds. bezpieczeństwa CertiK, Kang Li, powiedział magazynowi Cointelegraph, że giełdy kryptowalut, portfele i platformy blockchain mogłyby skorzystać na ciągłych testach bezpieczeństwa opartych na sztucznej inteligencji, zwłaszcza w odniesieniu do audytu inteligentnych kontraktów i innych systemów bezpieczeństwa kryptowalut.

Magazyn: Poznaj hakerów, którzy mogą pomóc Ci odzyskać oszczędności na kryptowalutach