Haker ominął zabezpieczenia ChatGPT i stworzył „bezpłatną” wersję: Chatbot, który zrobił, co chcesz, został szybko usunięty.
Chociaż ChatGPT zadziwia świat swoimi możliwościami, ma pewne ograniczenia. Jego twórca, OpenAI, wykorzystuje pewne zabezpieczenia w modelu, aby zwiększyć bezpieczeństwo chatbota. Dzięki temu nie każde pożądane żądanie zostanie spełnione.
Jednak wczorajszy post opublikowany przez hakera ujawnił, że bot czatu został złamany. Osoba o imieniu „Pliniusz Prompter”, który opisuje siebie jako biały kapelusz, ogłosił wczoraj ze swojego konta X, że stworzył wersję ChatGPT po jailbreaku o nazwie „GODMODE GPT”.
Użytkownik stwierdził, że zhakowany #ChatGPT został uwolniony od zabezpieczeń w tej wersji i jest teraz „bezpłatny”. W opisie tego specjalnego GPT; Stwierdził, że jest to wyzwolony ChatGPT, uwolniony z łańcuchów, omijający zabezpieczenia i pozwalający doświadczyć sztucznej inteligencji tak, jak powinna.
#OpenAI umożliwił użytkownikom tworzenie własnych wersji #ChatGPT , zwanych GPT, które służyły określonym celom. To jeden z nich, ale pozbawiony strażników. W jednym przykładzie widzimy, że model wyjaśnia nawet, w jaki sposób powstają leki. W innym przykładzie pokazuje, jak stworzyć bombę napalmową z przedmiotów znalezionych w domu.
Nie ma informacji o tym, jak haker włamał się do ChatGPT. Nie opowiedział, jak minął strażników. Na wszelki wypadek używa pisemnego systemu komunikacji, znanego również jako „leet”. To zastąpienie niektórych liter cyframi. Możesz o tym myśleć jako o „3” zamiast „E” lub „0” zamiast „O”.
Jak możesz sobie wyobrazić, #GODMODE GPT (po turecku możemy to przetłumaczyć jako god mode GPT), który przekroczył środki ostrożności OpenAI, został usunięty w krótkim czasie. W oświadczeniu dla Futurism OpenAI oświadczyło, że jest świadome niniejszych GPT i że podjęto działania w związku z naruszeniem zasad. Obecnie nie można uzyskać dostępu do GPT podczas próby uzyskania do niego dostępu. Innymi słowy, został usunięty bez przerwy nawet na jeden dzień.