Anthropic expande programa de recompensas por bugs com recompensas de até US$ 15.000! 💰

- Objetivo: "jailbreak" do modelo de IA de nova geração Claude-3.

- Claude-3: IA semelhante ao ChatGPT e Google Gemini.

- Equipe vermelha: quebrando deliberadamente para encontrar vulnerabilidades.

- Foco na segurança, evite exportação indesejada de informações.

- Novo programa de recompensas de bugs visando "jailbreaks" universais.

- Aceitar apenas um número limitado de participantes, com prioridade para especialistas em IA.

- Prazo de inscrição: 16 de agosto.

O que você pensa sobre isso? Comente agora! 🚀#AI#Crypto #Blockchain