**Anthropic Luncurkan Program Bug Bounty yang Diperluas**

Perusahaan kecerdasan buatan Anthropic telah meluncurkan program bug bounty yang diperluas, yang menawarkan hadiah hingga $15.000 bagi peserta yang dapat "membobol" model AI generasi berikutnya yang belum dirilis. Inisiatif ini bertujuan untuk meningkatkan keamanan AI andalannya, Claude-3, dengan mengidentifikasi kerentanan melalui "red teaming"—metode di mana para teknisi mencoba mengelabui AI agar menghasilkan output yang tidak diinginkan.

Program baru Anthropic menargetkan jailbreak universal yang dapat melewati langkah-langkah keamanan dalam domain penting seperti keamanan siber. Peneliti AI yang berpengalaman didorong untuk mendaftar sebelum 16 Agustus untuk akses awal ke model tersebut. Peserta yang terpilih akan membantu memastikan ketahanan pagar pengaman AI.