Niedawny raport ujawnia naruszenie bezpieczeństwa w OpenAI, gdzie w zeszłym roku haker uzyskał dostęp do wewnętrznych systemów przesyłania wiadomości, kradnąc szczegóły projektu technologii sztucznej inteligencji firmy. „The New York Times” doniósł o tym wycieku, który miał miejsce na forum internetowym, na którym pracownicy OpenAI dzielili się informacjami na temat swoich bieżących postępów.

Przeczytaj także: Śledztwo w sprawie rzekomego „samobójstwa” południowokoreańskiego robota

Zgłoszono, że do wycieku doszło na forum internetowym, na którym pracownicy OpenAI dzielili się najnowszymi aktualizacjami. Według dwóch anonimowych źródeł zaznajomionych z incydentem haker nie uzyskał dostępu do podstawowych systemów, za pomocą których OpenAI rozwija i przechowuje sztuczną inteligencję, takich jak ChatGPT. Według „NY Times” firma nie poinformowała opinii publicznej o naruszeniu, ponieważ nie doszło do naruszenia żadnego istotnego elementu i nie istniało zagrożenie dla bezpieczeństwa narodowego. 

OpenAI utrzymuje środki bezpieczeństwa po włamaniu

Kierownictwo OpenAI podzieliło się tymi informacjami z pracownikami podczas spotkania wszystkich pracowników w kwietniu ubiegłego roku oraz z zarządem. Pomimo naruszenia firma nie brała pod uwagę zaangażowania federalnych organów ścigania, zrzucając winę za incydent na osobę prywatną, niezwiązaną z żadnym obcym państwem. 

Przeczytaj także: Badania pokazują, że ChatGPT przewyższa ludzi w opowiadaniu dowcipów

Choć incydent naruszenia danych nie wpłynął na podstawowe systemy organizacji, które są uważane za najbardziej wrażliwe, to według raportu incydent ten wskazał na konieczność posiadania odpowiednich środków ochrony zaawansowanych technologii sztucznej inteligencji.

Batalia prawna NYT kontra OpenAI przybiera nieoczekiwany obrót

W powiązanym rozwoju sytuacji, batalia prawna pomiędzy The New York Times i OpenAI otrzymała niedawno poważną aktualizację. OpenAI złożyło dokumenty, w których wzywa sąd do nakazania wybitnemu wydawcy udowodnienia oryginalności swoich artykułów poprzez dostarczenie szczegółowych materiałów źródłowych dla każdego dzieła chronionego prawem autorskim. Żądanie to jeszcze bardziej skomplikowało sprawę, biorąc pod uwagę, że podstawą sprawy są roszczenia dotyczące nieuprawnionego wykorzystania treści NYT do szkolenia modeli AI. 

„The Times twierdzi […], że «inwestuje ogromną ilość czasu». . . wiedzę fachową i talent”, w tym poprzez „głębokie badania – których sporządzenie i opracowanie zwykle zajmuje miesiące, a czasem lata – dotyczące złożonych i ważnych obszarów interesu publicznego”.

Prawnicy OpenAI

We wniosku wzywa się „The New York Times” do przedłożenia wszelkiej dokumentacji związanej z procesem autorstwa, a mianowicie notatek reportera, notatek z wywiadów i zapisów źródeł. Prawnicy OpenAI zwrócili także uwagę, że według NYT wydaje ono znaczne środki na produkcję dziennikarstwa na światowym poziomie. Dlatego metody tworzenia, czas, praca i inwestycje są sednem sprawy. Twierdzą zatem, że OpenAI ma prawo sprawdzać te aspekty w procesie odkrywania. 

Przeczytaj także: Szanghaj jest gospodarzem światowej konferencji AI 2024

New York Times odpowiedział OpenAI w nocie prawnej wydanej 3 lipca, sprzeciwiając się żądaniu materiałów źródłowych dotyczących umowy. Zespół prawny NYT stwierdził, że żądanie OpenAI jest nowatorskie i opiera swoją argumentację na błędnej interpretacji praw autorskich. Utrzymywali, że proces tworzenia materiałów chronionych prawem autorskim jest nieistotny dla zasadniczego zagadnienia sprawy.

Oczekuje się, że administracja Bidena ogłosi w najbliższej przyszłości nowe zasady zapobiegające niewłaściwemu wykorzystywaniu amerykańskiej technologii sztucznej inteligencji przez kraje budzące obawy, w tym Chiny i Rosję. Są to początkowe środki proponowane w celu powstrzymania obecnych zaawansowanych aplikacji AI, takich jak ChatGPT. 

Raporty kryptopolityczne autorstwa Brendy Kanany