Geçtiğimiz birkaç yılda ahlaki ve pratik kaygılar, hem faydalı hem de zararlı kullanımlar açısından muazzam potansiyeli nedeniyle yapay zekaya odaklandı. Sektör liderlerinden biri olan OpenAI, yapay zeka modellerinin kötüye kullanılmasını önlemek için katı kurallar uygulamaya kendini adamıştır.

Bu özveri, ilgili tarafların gerçek kimliklerini veya motivasyonlarını ifşa etmeden kamuoyunu etkileme veya siyasi sonuçları etkileme çabaları olan gizli etki operasyonlarının (IO) tanımlanması ve engellenmesi için özellikle önemlidir. OpenAI, son üç ayda bu faaliyetlerden beşine müdahale ederek yapay zeka teknolojisinin kötüye kullanımını azaltma konusundaki kararlılığını kanıtladı.

Son Zamanlarda Gizli Etki Operasyonlarında Beklenmeyen Çöküşler

30 Mayıs 2024'te OpenAI, İran, Çin, Rusya ve hatta İsrailli bir özel şirketten gelen beş gizli etki kampanyasını başarıyla engellediğini dünyaya açıklayarak tarih yazdı. Şirket, bu kötü niyetli çabaları açığa çıkaran titiz soruşturmaları ayrıntılarıyla açıklayan ve web'de dolandırıcılık için OpenAI'nin son teknoloji dil modellerini kullanmayı amaçlayan bir açık rapor yayınladı.

OpenAI CEO'su Sam Altman, şirketin güvenilir ve emniyetli istihbarat uygulamaları yaratmaya olan bağlılığını yeniden teyit etti. Ayrıca şirketin, özellikle gizli etki faaliyetlerini belirleme ve etkilemeye odaklanarak, AI tarafından üretilen bilgileri çevreleyen açıklığı artıran ve kötüye kullanımı durduran düzenlemeleri uygulamaya kararlı olduğunu belirtti.

OpenAI analistleri tarafından "Kötü Dilbilgisi" olarak adlandırılan belirli bir operasyon Rusya'dan geldi. Kamuoyunun algısını değiştirme çabasıyla, bu operasyonun arkasındaki kişiler OpenAI'nin modellerini çalıştırmak ve hem Rusça hem de İngilizce kısa sosyal yorumlar üretmek için Telegram botlarını kullandılar. Bu yorumlar daha sonra iyi bilinen sohbet uygulamasında paylaşıldı.

Fotoğraf: Bu ağ tarafından oluşturulan bir metinle eşleşen genel Telegram yorumu. Tehdit İstihbaratı Raporu

“Doppelganger” adlı bir diğer kuruluş ise daha uluslararası bir strateji benimseyerek, farklı AB dillerinde yanıtlar oluşturmak için OpenAI’nin yapay zekasını kullandı.

Çalışma ayrıca, X, Medium ve Blogspot gibi siteler için çok dilli materyal oluşturma ve kamusal sosyal medya faaliyetlerinin araştırılması da dahil olmak üzere bir dizi uygulama için OpenAI'nin modellerinden yararlanan "Spamouflage" olarak bilinen bir Çin sistemine ilişkin içgörüler sağladı. Araştırmacılar, özellikle daha önce açıklanmamış bir alan adı olmak üzere, belki de hepsinden daha endişe verici olan veritabanı ve web sitesi yönetim kodunu hata ayıklamak için bile OpenAI'nin AI'sini kullandılar.

Fotoğraf: revealscum[.]com web sitesinin ekran görüntüsü, “汉奸” (“hain”) başlıklı sayfayı gösteriyor. Tehdit İstihbaratı Raporu

Uzun biçimli belgeleri, haberleri ve web etiketlerini oluşturmak ve yorumlamak için OpenAI'nin yapay zekasını kullanan İranlı bir kuruluş olan "Uluslararası Sanal Medya Birliği" (IUVM) da kuruluşun analistleri tarafından keşfedildi.

Fotoğraf: iuvmpress[.]co. tarafından yayınlanan bir makaledeki etiketler. Modelin yanıtını içeren ilk iki etikete dikkat edin. Threat Intel Report

Beklenmedik bir şekilde, OpenAI ayrıca "Zero Zeno" lakabıyla bilinen bir İsrail işletmesinin operasyonlarına da müdahale etti. STOIC, OpenAI'nin modellerini kullanarak Facebook, Instagram, X ve kurumsal sayfalar gibi çeşitli platformlarda paylaşılan hikayeler ve yanıtlar oluşturdu. Bu, kamuoyunu etkilemek veya iş hedeflerini ilerletmek için yapılmış olabilir.

Fotoğraf: Bu ağ tarafından oluşturulan ve Instagram'da paylaşılan İngilizce yorumlar. Hem orijinal gönderi hem de yanıtlar bu kampanya tarafından oluşturuldu. Threat Intel Report

Araştırma, bu farklı organizasyonlar tarafından dağıtılan bilgilerin çok çeşitli konuları kapsadığını vurguluyor. Bu geniş konu yelpazesi, bu tehdit aktörlerinin OpenAI'nin dil modellerini kendi kötü amaçları için kullanma girişimlerinde ne kadar uyarlanabilir olduklarını vurguluyor.

Ancak OpenAI, en iyi çabalarına rağmen bu gizli etki kampanyalarının popülerliğini veya erişimini artırmak için hizmetlerini kullanmaktan çok fazla şey kazanmadığını iddia ediyor. IO'ların etkisini değerlendirirken Brookings Enstitüsü'nün "Breakout Ölçeği" kullanıldı. 5 girişimin hiçbiri 2'den büyük bir puan almadı, bu da faaliyetlerinin birkaç platformla sınırlı olduğu ve meşru çevrimiçi gruplara önemli ölçüde nüfuz etmediği anlamına geliyor.

Fotoğraf: Araştırmacılar bu kampanyayla ilişkili olarak aşağıdaki etki alanını tespit ettiler. Threat Intel Report

Saldırgan Stratejilerinin İncelenmesi

OpenAI'dan gelen makale ayrıca bu tehdit aktörlerinin AI modellerini kötüye kullanma biçimindeki bir dizi önemli örüntüyü tanımlıyor. Sosyal medyada katılım görünümü yaratmak için hepsi el yazısı mektuplar veya yeniden kullanılan memler gibi daha geleneksel formatlara ek olarak AI tarafından üretilen materyal kullandı. Dahası, birkaç aktör sosyal medya gönderilerini analiz ederek veya kod sorunlarını gidererek üretkenliklerini artırmak için AI kullanarak bu teknolojilerin uyarlanabilirliğini gösterdi.

İlginçtir ki, şirket AI'nın bu tür saldırılara karşı savunmalara sağladığı faydaları vurguluyor. Etik AI dağıtımına öncelik veren OpenAI'nin güvenlik önlemleri, amaçlanan yıkıcı materyali sağlamayı reddederek tehdit aktörlerine sürekli olarak rahatsızlık vermiştir. Örneğin çalışma, şirketin modellerinin istenen metni veya grafikleri üretmeyi reddettiği ve operatörlerin yanlış bilgi veya propaganda yayma girişimlerini engellediği durumları ayrıntılı olarak anlatıyor.

Ek olarak, tanıma ve değerlendirme becerilerini geliştirmek ve haftalarca veya aylarca sürebilecek soruşturmaları hızlandırmak için OpenAI kendi AI destekli araçlarını geliştirdi. İşletme, AI'nın korumayı amaçladığı teknolojiyi kullanarak kendi kötü niyetli kullanımına karşı korumaları nasıl güçlendirebileceğini gösterdi.

OpenAI, bu gizli operasyonları engellemek için iş birliğinin ve açık kaynaklı istihbarat paylaşımının ne kadar önemli olduğunu vurgular. Daha geniş araştırma topluluğu tarafından yıllardır yapılan açık kaynaklı çalışmalar sonucunda, şirket sektördeki meslektaşlarıyla kesin tehlike göstergelerini paylaştı ve yanlış bilgi ve çevrimiçi manipülasyonla mücadelenin sektörler arası iş birliği gerektiren bir ekip çalışması olduğu fikrini güçlendirdi.

OpenAI'nin Güvenlik İçin Gelecekteki Rotası

OpenAI, bu stratejiyi kullanarak, bu kötü aktörler üzerindeki kesintilerinin etkisini güçlendirmeyi ve AI teknolojisini yasadışı faaliyetler için kullanma kapasitelerini kısıtlamayı amaçlıyor. Makaleye göre, "Dağıtım önemlidir: Geleneksel içerik biçimleri gibi, AI tarafından üretilen materyal de bir kitleye ulaşacaksa dağıtılmalıdır."

Özetle, OpenAI'nin araştırması, bu gizli etki operasyonlarının, AI teknolojisinin kötüye kullanılmasının sunduğu potansiyel tehditleri kabul ederken bile, operatör hataları ve karar alma kusurları gibi insan değişkenleriyle hala kısıtlandığını vurgulamaktadır. Makale, operatörlerin OpenAI'nin modellerinden gelen reddetme sinyallerini yanlışlıkla web sitelerine ve sosyal medyalarına göndermelerine dair örnekler içermekte olup, en gelişmiş yanlış bilgilendirme çabalarındaki kusurları ve kısıtlamaları ortaya koymaktadır.

Şimdilik, OpenAI'nin bu beş gizli etki kampanyasını ortadan kaldırması, şirketin yapay zeka sistemlerinin bütünlüğünü koruma konusundaki titizliğinin ve kararlılığının kanıtıdır. Ancak, yanlış bilgilendirme ve çevrimiçi manipülasyona karşı mücadele bitmekten çok uzaktır ve AI teknolojileri geliştikçe, iş birliğine, yaratıcılığa ve etik kaygılara çok daha fazla ihtiyaç duyulacaktır.

OpenAI, Yapay Zeka Teknolojisinden Yararlanan 5 Kötü Amaçlı Etkileme Operasyonunu Açığa Çıkardı ve Durdurdu başlıklı gönderi ilk olarak Metaverse Post'ta yayınlandı.