OpenAI'nin kurucu ortağı ve eski baş bilim adamı Ilya Sutskever, eski OpenAI mühendisi Daniel Levy ve daha önce startup hızlandırıcı Y Combinator'ın ortağı olan yatırımcı Daniel Gross ile birlikte Safe Superintelligence, Inc.'i (SSI) kurdu. Merkezi Palo Alto ve Tel Aviv'de bulunan şirket, hem güvenliğe hem de yeteneklere öncelik vererek yapay zekayı (AI) geliştirmeyi hedefliyor. 19 Haziran'da yapılan çevrimiçi duyuruda kurucular bağlılıklarını vurguladı:

“Başlangıçtan itibaren odak noktamız yapay zeka güvenliği ve yetenekleri konusunda değişmez. Bu tekil odaklanma, yönetim yükü veya ürün döngüleri nedeniyle dikkatimizin dağılmamasını sağlarken, iş modelimiz emniyeti, emniyeti ve ilerlemeyi kısa vadeli ticari baskılardan koruyor."

Sutskever ve Gross uzun süredir yapay zeka güvenliğinin savunucuları.

Sutskever, CEO Sam Altman'ın görevden alınmasına karışmasının ardından 14 Mayıs'ta OpenAI'den ayrıldı. Altman'ın dönüşü üzerine yönetim kurulundan ayrılmasının ardından şirketteki rolü belirsizleşti. Sutskever'in ayrılmasından kısa bir süre sonra Daniel Levy ve diğer birkaç araştırmacı da OpenAI'den ayrıldı.

Sutskever ve Jan Leike, yapay genel zeka (AGI) olarak bilinen, insanlardan daha akıllı yapay zeka sistemlerini yönlendirmek ve yönetmek için yöntemler keşfetmek amacıyla Temmuz 2023'te kurulan OpenAI Superalignment ekibinin ortak liderliğini yaptı. OpenAI, başlangıcında bilgi işlem kaynaklarının %20'sini Superalignment ekibini desteklemek için ayırdı.

Mayıs ayında Leike, Amazon tarafından desteklenen bir yapay zeka girişimi olan Anthropic'teki bir ekibin başına geçmek üzere OpenAI'den ayrıldı. Kilit araştırmacılarının ayrılmasının ardından OpenAI, Superalignment ekibini dağıttı. Şirketin başkanı Greg Brockman, X ile ilgili ayrıntılı bir gönderide güvenlik protokollerini savundu.

Teknoloji sektörünün diğer önde gelen isimleri de endişelerini paylaşıyor

Eski OpenAI araştırmacıları ve çok sayıda bilim insanı, yapay zekanın gelecekteki gidişatı hakkında derin endişelerini dile getiriyor. Ethereum'un kurucu ortağı Vitalik Buterin, OpenAI'deki son personel değişiklikleri nedeniyle AGI'yi "riskli" olarak nitelendirdi. Ancak aynı zamanda "bu tür modellerin, kurumsal megalomanlık ve askeri uygulamalarla karşılaştırıldığında çok daha düşük felaket riski taşıdığını" da belirtti.

Kaynak: Ilya Sutskever

Eskiden OpenAI destekçisi olan Tesla CEO'su Elon Musk ve Apple kurucu ortağı Steve Wozniak, yapay zeka sistemlerinin eğitimine altı aylık bir ara verilmesi çağrısında bulunmak üzere 2.600'den fazla teknoloji lideri ve araştırmacıya katıldı. İnsanlığın bu teknolojilerin yarattığı "derin riskler" üzerinde düşünmesi gerektiğini vurguladılar.

Eski OpenAI Bilim Adamı Ilya Sutskever Yapay Zeka Güvenliği için SSI'yi Başlatıyor yazısı ilk olarak Baffic'te çıktı.