OpenAI, en son yapay zeka teknolojilerinin potansiyel tehlikelerini ele almak için yıkıcı risk önleme yöntemleri geliştiriyor.

OpenAI, en ileri yapay zeka teknolojilerinin yol açtığı potansiyel felaket risklerini proaktif bir şekilde ele almak için yeni ekipleri ve zorlukları içeren bir riske hazırlık yaklaşımı geliştiriyor.

OpenAI'nin Ekim 2023'te bildirdiği gibi girişim, yapay zekayla ilişkili çok çeşitli güvenlik risklerini ele alarak güvenli genel yapay zeka (AGI) oluşturma misyonuyla tutarlıdır.

OpenAI, en son yapay zeka modellerinin (gelecekteki teknolojilerin şu anda mevcut olan en iyi modelleri geride bırakma yeteneği) insanlığa sayısız fayda sağlama potansiyeline sahip olduğu inancı üzerine kurulmuştur.

Ancak OpenAI, bu modellerin giderek ciddi riskler oluşturabileceğinin farkındadır. Amaç, son teknolojiye sahip yapay zeka sistemlerinin şimdi ve gelecekte kötüye kullanılması durumunda ortaya çıkabilecek potansiyel tehlikelerini anlayarak ve bu sistemlerin tehlikeli yeteneklerini izlemek, değerlendirmek, tahmin etmek ve bunlara karşı korumak için sağlam bir çerçeve oluşturarak bu riskleri yönetmektir.

OpenAI, risk azaltma stratejisinin bir parçası olarak "Hazırlıklı" adında yeni bir ekip kuruyor. OpenAI'nin raporuna göre ekip, Aleksander Madry tarafından yönetilecek ve yetenek değerlendirmesi, dahili kırmızı ekip oluşturma ve son teknoloji model değerlendirmesine odaklanacak.

Çalışmaları yakın zamanda geliştirilen modellerden AGI düzeyinde yeteneklere sahip modellere kadar değişecek. Hazırlık ekibinin misyonu, kişiselleştirilmiş ikna, siber güvenlik ve kimyasal, biyolojik, radyolojik ve nükleer (KBRN) nitelikteki tehditler de dahil olmak üzere birden fazla kategorideki felaket risklerini izlemeyi, değerlendirmeyi ve tahmin etmenin yanı sıra bunlara karşı korumayı içerecektir. otonom replikasyon ve adaptasyonun yanı sıra (ARA).

Ayrıca hazırlık ekibinin sorumlulukları arasında risk bilgili bir geliştirme politikasının (RDP) geliştirilmesi ve sürdürülmesi yer alır. Politika, OpenAI'nin en son modelleri titizlikle değerlendirmek ve izlemek, bir dizi koruma eylemi oluşturmak ve geliştirme boyunca hesap verebilirlik ve gözetim için bir yönetişim yapısı oluşturmak için yetenek geliştirme yaklaşımını ayrıntılarıyla anlatacak.

RDP, OpenAI'nin mevcut risk azaltma çabalarını genişletmek ve yeni sistemlerin konuşlandırılmasından önce ve sonra güvenlik ve tutarlılığın sağlanmasına yardımcı olmak için tasarlanmıştır.

OpenAI aynı zamanda yıkıcı suiistimalleri önlemek için bir Yapay Zeka Hazırlık Yarışması başlatarak hazırlık ekibini güçlendirmeyi de amaçlıyor. Bu zorluk, daha az belirgin olan potansiyel odak alanlarını belirlemek ve ekibi oluşturmak için tasarlanmıştır.

En iyi 10 başvuru sahibine 25.000 $ API kredisi verilecek, yeni fikirler ve katılımlar yayınlanacak ve yarışmanın en iyi yarışmacıları arasında hazır adaylar bulunacaktır.

En son yapay zeka teknolojileri geliştikçe OpenAI'nin girişimi, yapay zeka alanında sıkı risk yönetimi stratejilerine olan ihtiyacın altını çiziyor ve bu güçlü araçların felaketle sonuçlanabilecek kötüye kullanımı karşısında hazırlıklı olmanın önemini vurguluyor. #人工智能 #OpenAI