**Anthropic lança programa de recompensa por bugs expandido**

A empresa de inteligência artificial Anthropic revelou um programa de recompensa por bugs expandido, oferecendo recompensas de até US$ 15.000 para participantes que conseguirem "desbloquear" seu modelo de IA de última geração não lançado. Esta iniciativa visa aumentar a segurança de sua IA principal, Claude-3, identificando vulnerabilidades por meio de "red teaming" — um método em que engenheiros tentam enganar a IA para gerar saídas indesejadas.

O novo programa da Anthropic tem como alvo desbloqueios universais que podem ignorar medidas de segurança em domínios críticos como a segurança cibernética. Pesquisadores experientes em IA são incentivados a se inscrever até 16 de agosto para acesso antecipado ao modelo. Os participantes selecionados ajudarão a garantir a robustez das proteções de segurança da IA.