Ačkoli New York Times uvedl, že OpenAI má bezpečnostní slabiny, společnost zabývající se umělou inteligencí neinformovala FBI, orgány činné v trestním řízení ani veřejnost.

The New York Times ve zprávě ze 4. července odhalily, že společnost OpenAI s umělou inteligencí narazila v roce 2023 na bezpečnostní zranitelnost, ale rozhodla se incident neoznámit veřejně. Uvádí se, že manažeři společnosti zmínili bezpečnostní incident na interní schůzce v dubnu, ale nezveřejnili jej, protože útočník neměl přístup k informacím o zákaznících nebo partnerech.

Kromě toho se vedení OpenAI také domnívá, že tento bezpečnostní incident nepředstavuje hrozbu pro národní bezpečnost, protože určili, že útočníkem byl individuální hráč a nebyl spojen s žádnou cizí vládou, a proto to neoznámili FBI ani jinému zákonu. donucovací orgány.

Zpráva také poukázala na to, že útočníci byli schopni napadnout interní komunikační systém OpenAI a ukrást detaily firemního návrhu technologie umělé inteligence z diskuzí zaměstnanců na online fórech. Útočníci však neměli přístup ke klíčovým systémům nebo kódům OpenAI sloužícím k ukládání a budování umělé inteligence.

Zpráva New York Times prý vychází z informací poskytnutých dvěma zdroji se znalostí situace.

Obavy bývalých zaměstnanců a reakce společnosti

The New York Times uvedl, že Leopold Aschenbrenner, bývalý výzkumník v OpenAI, podnikl opatření po narušení bezpečnosti a předložil zprávu představenstvu společnosti. Aschenbrenner v memorandu zdůraznil naléhavost posílení bezpečnostních opatření, zejména s cílem zabránit cizím mocnostem, včetně Číny, ukrást obchodní tajemství společnosti.

V reakci na to zástupkyně společnosti OpenAI Liz Bourgeois odpověděla, že společnost chápe obavy Aschenbrennera a je odhodlána nadále investovat zdroje a úsilí do vývoje zabezpečené technologie umělé obecné inteligence (AGI). Liz Bourgeois má však výhrady k některým bodům Aschenbrennerové a zpochybňuje některé podrobnosti. Poukázal na to, že společnost se relevantními bezpečnostními otázkami zabývala již před nástupem Aschenbrennera a komunikovala o této otázce s představenstvem.

Aschenbrenner zároveň tvrdil, že byl vyhozen kvůli únikům informací a politickým faktorům. Bourgeois ale dal jasně najevo, že jeho odchod nemá nic společného s obavami o bezpečnost, které vyjádřil.

Matt Knight, ředitel bezpečnosti OpenAI, pro New York Times zopakoval silný závazek společnosti k bezpečnosti. Poukázal na to, že OpenAI již investovala do oblasti bezpečnosti před spuštěním ChatGPT, což ukazuje, že společnost uvažuje o budoucnosti a připravuje se na možné bezpečnostní problémy. Knight také otevřeně připustil, že vývoj technologie umělé inteligence s sebou nese určitá rizika, ale také zdůraznil, že společnost tato rizika aktivně identifikuje a je odhodlána jim porozumět, aby mohla lépe reagovat na potenciální hrozby a zmírňovat je.

New York Times jednou podal žalobu na OpenAI a Microsoft kvůli problémům s autorskými právy a tvrdil, že tyto dvě společnosti použily jeho obsah bez oprávnění k výcviku vlastních modelů umělé inteligence a může mezi nimi dojít ke střetu zájmů. OpenAI však zpochybňuje obvinění New York Times a věří, že její žaloba postrádá rozumný faktický základ.

Závěr:

Bezpečnostní problémy v oblasti umělé inteligence nelze ignorovat. Bez ohledu na to, zda je zpráva New York Times zcela pravdivá, připomíná nám, že ať už se jedná o OpenAI nebo jiné společnosti zabývající se technologií umělé inteligence, měly by klást bezpečnost na jádro vývoje, přijmout preventivní, detekční a opravná opatření a zároveň zajistit transparentnost a včasnost. Odhalte bezpečnostní incidenty veřejnosti.

Zároveň bychom se měli mít na pozoru před možnými motivačními problémy v mediálním zpravodajství, zejména v souvislosti se spory o autorská práva. Vyzýváme tímto média, aby zůstala objektivní a nestranná a pokud by spory týkající se autorských práv měly být řešeny právní cestou.

A konečně, průmysloví hráči, média a regulační orgány musí spolupracovat na podpoře zdravého a udržitelného rozvoje technologií odpovědným způsobem. #OpenAI #安全漏洞 #人工智能 #AI