Dalam upaya meningkatkan model AI-nya, OpenAI merekrut pakar penetrasi untuk menemukan kerentanan dalam platform chatbot AI yang banyak digunakan.

Gambar: Koshiro K/Shutterstock.com

Untuk meningkatkan keamanan chatbot kecerdasan buatan yang populer, OpenAI mencari pakar keamanan siber dan penetrasi dari luar, yang juga dikenal sebagai "tim merah", untuk menemukan kerentanan dalam platform kecerdasan buatan.

Perusahaan tersebut mengatakan sedang mencari ahli di berbagai bidang, termasuk ilmu kognitif dan komputer, ekonomi, perawatan kesehatan, dan keamanan siber. OpenAI mengatakan hal itu bertujuan untuk meningkatkan keamanan dan etika model AI.

Undangan terbuka ini muncul ketika Komisi Perdagangan Federal AS meluncurkan penyelidikan terhadap pengumpulan data dan praktik keamanan OpenAI, dan pembuat kebijakan serta perusahaan mempertanyakan keamanan penggunaan ChatGPT.

“Ini tentang crowdsourcing sukarelawan yang datang dan melakukan pekerjaan keamanan yang menarik,” kata salah satu pendiri Halborn dan kepala petugas keamanan informasi Steven Walbroehl kepada wartawan. “Ini adalah peluang jaringan dan peluang untuk menjadi yang terdepan dalam teknologi.”

Walbroehl menambahkan, "Peretas terbaik senang meretas teknologi terkini."

Untuk mempermanis kesepakatan, OpenAI mengatakan anggota tim merah akan diberi kompensasi dan tidak memerlukan pengalaman apa pun dengan kecerdasan buatan, hanya kemauan untuk menyumbangkan perspektif berbeda.

“Kami mengumumkan rekrutmen terbuka untuk Jaringan Tim Merah OpenAI dan mengundang pakar domain yang tertarik untuk meningkatkan keamanan model OpenAI untuk bergabung dalam upaya kami,” tulis OpenAI. “Kami mencari pakar dari berbagai bidang untuk bekerja bersama kami guna mengevaluasi secara ketat dan menyusun ulang model AI kami.”

Tim merah adalah profesional keamanan siber yang berspesialisasi dalam menyerang sistem (juga disebut pengujian penetrasi atau pengujian pena) dan mengungkap kerentanan. Sebaliknya, Tim Biru menggambarkan profesional keamanan siber yang melindungi sistem dari serangan.

OpenAI melanjutkan, "Selain bergabung dengan jaringan ini, terdapat peluang kolaboratif lainnya untuk berkontribusi terhadap keselamatan AI. Misalnya, salah satu opsinya adalah membuat atau melakukan penilaian keselamatan sistem AI dan menganalisis hasilnya."

Diluncurkan pada tahun 2015, OpenAI menjadi sorotan publik pada akhir tahun lalu dengan dirilisnya ChatGPT dan GPT-4 yang lebih canggih ke publik, sehingga menggemparkan dunia teknologi dan membawa AI generatif ke dalam arus utama.

Pada bulan Juli, OpenAI bergabung dengan Google, Microsoft, dan perusahaan lain dalam berjanji mengembangkan alat kecerdasan buatan yang aman dan andal.

Meskipun alat AI generatif seperti ChatGPT telah merevolusi cara orang membuat konten dan mengonsumsi informasi, chatbot AI bukannya tanpa kontroversi, menimbulkan pertanyaan tentang bias, rasisme, kebohongan (halusinasi), dan cara data pengguna disimpan serta Tuduhan kurangnya transparansi mengenai lokasi .

Kekhawatiran terhadap privasi pengguna telah menyebabkan beberapa negara, termasuk Italia, Rusia, Tiongkok, Korea Utara, Kuba, Iran, dan Suriah, melarang penggunaan ChatGPT di dalam wilayah negara mereka. Sebagai tanggapan, OpenAI memperbarui ChatGPT untuk menambahkan kemampuan menghapus riwayat obrolan guna melindungi privasi pengguna.

Program Tim Merah adalah upaya terbaru OpenAI untuk menarik profesional keamanan terkemuka guna membantu mengevaluasi teknologinya. Pada bulan Juni, OpenAI memberikan komitmen sebesar $1 juta untuk langkah-langkah dan inisiatif keamanan siber menggunakan kecerdasan buatan.

Meskipun perusahaan mengatakan para peneliti tidak dibatasi untuk mempublikasikan temuan mereka atau mengejar peluang lain, OpenAI mencatat bahwa anggota program harus menyadari bahwa partisipasi dalam tim merah dan proyek lainnya sering kali tunduk pada perjanjian kerahasiaan (NDA) atau "harus tetap ada". Jaga rahasia tanpa batas waktu. "

OpenAI menyimpulkan, “Kami mendorong kreativitas dan eksperimen ketika mengevaluasi sistem AI, dan setelah selesai, Anda dipersilakan untuk menyumbangkan evaluasi Anda ke repositori open source Evals untuk digunakan oleh komunitas AI yang lebih luas.”

#OpenAI  #网络安全