Anthropic extinde programul de recompense pentru erori cu recompense de până la 15.000 USD! 💰

- Scop: „jailbreak” modelului AI de nouă generație Claude-3.

- Claude-3: AI similar cu ChatGPT și Google Gemini.

- Echipa roșie: spargeți în mod deliberat pentru a găsi vulnerabilități.

- Concentrați-vă pe securitate, evitați exportul de informații nedorite.

- Nou program de recompensă pentru erori care vizează „jailbreak-uri” universale.

- Se acceptă doar un număr limitat de participanți, prioritate acordată experților AI.

- Termen limită de aplicare: 16 august.

Ce părere ai despre asta? Comentează acum! 🚀#AI#Crypto #Blockchain