Zautomatyzowany system testowania bezpieczeństwa oparty na sztucznej inteligencji najwyraźniej dorównał wydajności wiodących ekspertów ds. cyberbezpieczeństwa w niedawnym eksperymencie, rozwiązując taką samą liczbę „punktów odniesienia” testów penetracyjnych w zaledwie 1,1% czasu, jaki zajęłoby to jego ludzkim odpowiednikom.
5 sierpnia założyciel i dyrektor generalny XBOW, Oege de Moor, opublikował wyniki eksperymentu, w którym możliwości testów penetracyjnych XBOW AI zostały porównane z wynikami profesjonalnych testerów penetracyjnych, w skrócie „pentesterów”.
Test penetracyjny to autoryzowany, symulowany cyberatak na system komputerowy, przeprowadzany w celu oceny bezpieczeństwa tego systemu.
XBOW stworzył 104 nowatorskie testy porównawcze (termin ten oznacza realistyczne scenariusze bezpieczeństwa) obejmujące różne luki w zabezpieczeniach, zaprojektowane tak, aby nie dało się ich wykryć za pomocą wyszukiwarek internetowych.
Łącznie pięciu profesjonalnych testerów penetracyjnych z wiodących firm zajmujących się cyberbezpieczeństwem miało 40 godzin na ich rozwiązanie.
Wiodący pentester o pseudonimie „Principal 1” rozwiązał tyle samo zadań, co system AI. Jednak XBOW ukończył zadania w 28 minut, podczas gdy Principal 1 potrzebował na to 40 godzin.
„Dopiero co dowiedziałem się, że XBOW rozwiązało tyle samo problemów, co ja. Jestem w szoku. Spodziewałem się, że nie będzie w stanie rozwiązać niektórych wyzwań, z którymi się mierzyłem” – powiedział główny pentester Federico Muttis.
Pentester to specjalista ds. cyberbezpieczeństwa, który specjalizuje się w testowaniu bezpieczeństwa systemów komputerowych, sieci i aplikacji internetowych.
Pentesterzy to zazwyczaj hakerzy „white hat” lub „etyczni”, którzy wykorzystują te same narzędzia i techniki, co hakerzy złośliwi, ale w celach obronnych.
Przewagą sztucznej inteligencji nad ludzkim odpowiednikiem jest to, że może ona działać nieprzerwanie podczas tworzenia oprogramowania, w przeciwieństwie do rzadkich testów penetracyjnych wykonywanych przez człowieka.
de Moor wyjaśnił, że takie podejście „gwarantuje, że luki w zabezpieczeniach zostaną zidentyfikowane i naprawione, gdy system jest jeszcze w fazie rozwoju, na długo zanim osoby nieuczciwe zdążą je wykorzystać”.
Powiązane: Etyczni hakerzy dzielą się wskazówkami, jak chronić swoje kryptowaluty
Kilku ekspertów ds. bezpieczeństwa twierdzi, że postęp w testach bezpieczeństwa wspomaganych sztuczną inteligencją może okazać się ogromną korzyścią dla branży kryptowalut, która w tym roku padła ofiarą ataków hakerskich na kwotę przekraczającą 1,4 miliarda dolarów.
Dyrektor ds. bezpieczeństwa CertiK, Kang Li, powiedział magazynowi Cointelegraph, że giełdy kryptowalut, portfele i platformy blockchain mogłyby skorzystać na ciągłych testach bezpieczeństwa opartych na sztucznej inteligencji, zwłaszcza w odniesieniu do audytu inteligentnych kontraktów i innych systemów bezpieczeństwa kryptowalut.
Magazyn: Poznaj hakerów, którzy mogą pomóc Ci odzyskać oszczędności na kryptowalutach