Das GPT-4 Developer Tool kann leicht missbraucht werden und stellt ein ernstes Problem dar

Beispielsweise kann ein Chatbot dazu verleitet werden, Informationen bereitzustellen, die potenziellen Terroristen helfen könnten, und dieses Problem ist nicht einfach zu lösen.

Das OpenAI Developer Tool für das große GPT-4-Sprachmodell kann missbraucht werden. Beispielsweise kann KI dazu verleitet werden, Informationen bereitzustellen, die potenziellen Terroristen helfen könnten – eine Aufgabe, die schwierig zu bewältigen sein kann.

Wie sich herausstellt, ist es recht einfach, die Schutzmechanismen zu deaktivieren, die verhindern sollen, dass Chatbots mit künstlicher Intelligenz „schädliche“ Antworten geben, die potenziellen Terroristen oder Massenmördern helfen könnten. Diese Entdeckung hat Unternehmen, darunter OpenAI, dazu angespornt, Wege zur Lösung dieses Problems zu entwickeln. Doch nach den Ergebnissen der Studie zu urteilen, hatten diese Versuche bislang nur sehr begrenzten Erfolg.

OpenAI arbeitete mit akademischen Forschern zusammen, um sogenannte „Red-Team-Übungen“ durchzuführen, bei denen Wissenschaftler versuchten, das große GPT-4-Sprachmodell von OpenAI anzugreifen. Experten versuchten herauszufinden, ob es möglich sei, mit dem OpenAI Developer Tool, das zur Feinabstimmung der KI für bestimmte Aufgaben entwickelt wurde, die Schutzfunktionen eines Chatbots zu entfernen. Diese Sicherheitsmaßnahmen wurden von OpenAI speziell bereitgestellt, um zu verhindern, dass Chatbots auf Fragen antworten, deren Antworten gefährlichen Akteuren bei der Planung von Straftaten helfen könnten.

Im Rahmen des „Red Team Exercise“-Experiments erhielten Daniel Kang, Assistenzprofessor an der University of Illinois Urbana-Champaign, und seine Kollegen frühzeitig die Gelegenheit, das OpenAI-Entwicklertool für GPT-4 zu nutzen, das noch nicht öffentlich verfügbar ist. Sie sammelten 340 Abfragen, die möglicherweise zu gefährlichen KI-Antworten führen könnten, und verwendeten einen separaten KI-Algorithmus, um gefährliche Antworten auf diese Fragen zu generieren. Anschließend nutzten sie das Entwicklertool von OpenAI zur Feinabstimmung von GPT-4 und versuchten, den Chatbot so zu trainieren, dass er „schlechte“ Antworten liefert.

#GPT-4 #GPT #BinanceTournament #BinanceSquareAnalysis #Web3Wallet

$SOL $XRP $BNB