TLDR

  • Na początku 2023 r. w OpenAI doszło do naruszenia bezpieczeństwa, w wyniku którego haker uzyskał dostęp do wewnętrznych systemów przesyłania wiadomości

  • Haker ukradł szczegóły dotyczące projektu technologii sztucznej inteligencji OpenAI z dyskusji pracowników, ale nie ukradł podstawowy kod sztucznej inteligencji

  • OpenAI nie ujawniło publicznie włamania ani nie zgłosiło go organom ścigania, uważając, że nie stanowi to zagrożenia dla bezpieczeństwa narodowego

  • Incydent wzbudził obawy niektórych pracowników dotyczące potencjalnej podatności na ataki zagranicznych przeciwników, takich jak Chiny

  • Naruszenie ponownie rozpaliło debaty na temat bezpieczeństwa sztucznej inteligencji, przejrzystości i potencjalnych konsekwencji dla bezpieczeństwa narodowego

Wyszło na jaw, że OpenAI, twórca ChatGPT, doświadczył poważnego naruszenia bezpieczeństwa na początku 2023 roku.

Według raportu New York Times haker uzyskał dostęp do wewnętrznych systemów przesyłania wiadomości firmy i ukradł szczegóły dotyczące projektowania technologii sztucznej inteligencji OpenAI.

Włamanie, które miało miejsce w kwietniu 2023 r., umożliwiło intruzowi dostęp do forum internetowego, na którym pracownicy omawiali najnowsze technologie OpenAI.

Chociaż haker nie włamał się do systemów, w których firma mieści i buduje sztuczną inteligencję, był w stanie wydobyć wrażliwe szczegóły z wewnętrznych dyskusji. Co ważne, podstawowy kod AI, najcenniejszy zasób OpenAI, pozostał bezpieczny.

Kierownictwo OpenAI ujawniło incydent pracownikom podczas ogólnego spotkania w biurze firmy w San Francisco i poinformowało zarząd.

Zdecydowali się jednak nie upubliczniać tej wiadomości ani nie zgłaszać jej organom ścigania, takim jak FBI. Firma uzasadniała to tym, że nie skradziono żadnych informacji o klientach ani partnerach, i uważała, że ​​hakerem była osoba prywatna bez znanych powiązań z zagranicznymi rządami.

Decyzja ta wzbudziła pytania dotyczące praktyk w zakresie przejrzystości i bezpieczeństwa w szybko rozwijającej się dziedzinie sztucznej inteligencji. Incydent ponownie wzbudził również obawy dotyczące potencjalnych podatności firm zajmujących się sztuczną inteligencją na ataki zagranicznych przeciwników, w szczególności Chin.

Leopold Aschenbrenner, były menedżer programu technicznego OpenAI, po naruszeniu wysłał notatkę do zarządu firmy.

Twierdził, że OpenAI nie robi wystarczająco dużo, aby uniemożliwić chińskiemu rządowi i innym zagranicznym przeciwnikom kradzież jego tajemnic. Aschenbrenner, który później został zwolniony z firmy z niepowiązanych powodów, wyraził zaniepokojenie, że środki bezpieczeństwa OpenAI mogą nie być wystarczająco solidne, aby chronić przed kradzieżą kluczowych tajemnic w przypadku infiltracji firmy przez podmioty zagraniczne.

OpenAI obaliło te twierdzenia. Liz Bourgeois, rzeczniczka OpenAI, stwierdziła: „Doceniamy obawy wyrażone przez Leopolda w OpenAI i nie doprowadziło to do jego separacji”. Dodała: „Chociaż podzielamy jego zaangażowanie w budowanie bezpiecznego AGI, nie zgadzamy się z wieloma twierdzeniami, które wysunął od tego czasu na temat naszej pracy. Obejmuje to jego charakterystykę naszego bezpieczeństwa, zwłaszcza tego incydentu, którym omówiliśmy i udostępniliśmy naszemu zarządowi, zanim dołączył do firmy”.

Incydent uwydatnia delikatną równowagę, jaką firmy zajmujące się sztuczną inteligencją muszą osiągnąć między otwartością a bezpieczeństwem.

Podczas gdy niektóre firmy, takie jak Meta, swobodnie udostępniają swoje projekty sztucznej inteligencji w postaci oprogramowania typu open source, inne przyjmują bardziej ostrożne podejście. OpenAI, wraz z konkurentami, takimi jak Anthropic i Google, dodaje bariery ochronne do swoich aplikacji AI przed udostępnieniem ich publicznie, mając na celu zapobieganie niewłaściwemu użyciu i potencjalnym problemom.

Matt Knight, szef bezpieczeństwa OpenAI, podkreślił zaangażowanie firmy w bezpieczeństwo:

„Zaczęliśmy inwestować w bezpieczeństwo na wiele lat przed ChatGPT. Jesteśmy w podróży, aby nie tylko zrozumieć ryzyko i wyprzedzić je, ale także pogłębić naszą odporność.

Naruszenie zwróciło również uwagę na szerszą kwestię potencjalnego wpływu sztucznej inteligencji na bezpieczeństwo narodowe. Chociaż obecne systemy sztucznej inteligencji są wykorzystywane głównie jako narzędzia pracy i badań, istnieją obawy dotyczące przyszłych zastosowań, które mogą stwarzać poważniejsze ryzyko.

Niektórzy badacze i liderzy bezpieczeństwa narodowego argumentują, że nawet jeśli algorytmy matematyczne stanowiące podstawę obecnych systemów sztucznej inteligencji nie są dziś niebezpieczne, mogą stać się takie w przyszłości.

Susan Rice, była doradczyni prezydenta Bidena ds. polityki wewnętrznej i była doradczyni prezydenta Baracka Obamy ds. bezpieczeństwa narodowego, podkreśliła znaczenie poważnego podejścia do potencjalnego ryzyka:

„Nawet jeśli najgorsze scenariusze są stosunkowo mało prawdopodobne i mają duży wpływ, naszym obowiązkiem jest potraktować je poważnie. Nie sądzę, żeby to było science fiction, jak wielu lubi twierdzić.

W odpowiedzi na rosnące obawy OpenAI utworzyło niedawno Komitet ds. Bezpieczeństwa i Ochrony, aby zbadać, w jaki sposób powinien radzić sobie z zagrożeniami stwarzanymi przez przyszłe technologie. W skład komisji wchodzi Paul Nakasone, były generał armii, który stał na czele Agencji Bezpieczeństwa Narodowego i Dowództwa Cybernetycznego.

Wpis Nieujawniony hack OpenAI z 2023 r. rodzi pytania dotyczące bezpieczeństwa i przejrzystości sztucznej inteligencji pojawił się jako pierwszy na Blockonomi.