Anthropic expande programa de recompensas por bugs com recompensas de até US$ 15.000! 💰
- Objetivo: "jailbreak" do modelo de IA de nova geração Claude-3.
- Claude-3: IA semelhante ao ChatGPT e Google Gemini.
- Equipe vermelha: quebrando deliberadamente para encontrar vulnerabilidades.
- Foco na segurança, evite exportação indesejada de informações.
- Novo programa de recompensas de bugs visando "jailbreaks" universais.
- Aceitar apenas um número limitado de participantes, com prioridade para especialistas em IA.
- Prazo de inscrição: 16 de agosto.
O que você pensa sobre isso? Comente agora! 🚀#AI#Crypto #Blockchain