Odaily Planet Daily News OpenAI ve Google DeepMind çalışanları, gelişmiş yapay zekanın büyük riskler taşıdığı ve acilen güçlendirilmesi gerektiği yönündeki endişelerini ortaklaşa dile getirdi. Buna yanıt olarak OpenAI bugün, güçlü ve güvenli yapay zeka sistemleri sağlama konusundaki kararlılığını vurgulayan bir bildiri yayınladı. OpenAI, AI teknolojisinin önemi göz önüne alındığında, açık mektubun içeriğinin ve ciddi tartışmaların nasıl yürütüleceğinin AI teknolojisinin gelişimini daha iyi teşvik etmek için çok önemli olduğu konusunda hemfikir olduğumuzu belirtti. Uyumlu bir yapay zeka ortamı oluşturmak amacıyla birlikte çalışmak üzere dünya genelindeki hükümetler, sivil toplum ve diğer topluluklarla iletişim kurmaya devam edeceğiz. Anonim dürüstlük yardım hatları ve yönetim kurulu üyelerinin ve şirket güvenlik liderlerinin yer aldığı emniyet ve güvenlik komiteleri (Emniyet ve Güvenlik Komitesi) dahil olmak üzere yapay zekayı düzenlemenin etkili araçlarıdır. OpenAI, gerekli güvenlik önlemleri alınana kadar şirketin yeni AI teknolojisini piyasaya sürmeyeceğini belirtiyor. Şirket, hükümet düzenlemelerine desteğini ve Yapay Zeka Güvenliğine İlişkin Gönüllü Taahhüt'e katılımını yineledi. Misilleme konusundaki endişelere yanıt veren bir sözcü, şirketin tüm eski çalışanların kötüleme yasağı anlaşmalarını feshettiğini ve bu tür maddeleri standart ayrılık belgelerinden çıkardığını doğruladı. (IT House) Bugün erken saatlerde, OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) şirketlerinden 13 eski ve mevcut çalışan ve yapay zeka alanında uzman olan 13 kişi, "Yapay Zekayı Uyarma Hakkı" dilekçesini başlattı. Dilekçe, gelişmiş yapay zeka sistemlerinin riskleri konusunda kamuoyunun farkındalığını artırmak için ihbarcılara daha güçlü koruma sağlanmasını savunmayı amaçlıyor. Eski OpenAI çalışanı William Saunders, potansiyel olarak tehlikeli yeni teknolojilerle uğraşırken risklerle ilgili bilgileri bağımsız uzmanlarla, hükümetlerle ve halkla paylaşmanın yolları olması gerektiğini söyledi.