Anthropic extinde programul de recompense pentru erori cu recompense de până la 15.000 USD! 💰
- Scop: „jailbreak” modelului AI de nouă generație Claude-3.
- Claude-3: AI similar cu ChatGPT și Google Gemini.
- Echipa roșie: spargeți în mod deliberat pentru a găsi vulnerabilități.
- Concentrați-vă pe securitate, evitați exportul de informații nedorite.
- Nou program de recompensă pentru erori care vizează „jailbreak-uri” universale.
- Se acceptă doar un număr limitat de participanți, prioritate acordată experților AI.
- Termen limită de aplicare: 16 august.
Ce părere ai despre asta? Comentează acum! 🚀#AI#Crypto #Blockchain