Yakın gelecekte üretken yapay zeka uygulamalarının kullanıcıları, yapay zekanın nasıl kullanılması gerektiğini, ilişkili riskleri ve test sürecini açıkça özetleyen etiketler bulabilir. Yeni yönergelerin ardından, teknolojinin kitleler tarafından anlaşılmasını kolaylaştırmak için etiketler zorunlu hale getirilecek.

Ayrıca okuyun: Avrupa Birliği (AB) yapay zeka düzenlemesinde başı çekiyor

Singapur İletişim ve Enformasyon Bakanı Bayan Josephine Teo, yeni tedbirin teknoloji firmaları için bir şeffaflık ve test standardı tanımlama çabası olduğunu söyledi. Strait Times'ın bir raporuna göre, 15 Temmuz'da Kişisel Verilerin Korunması teknoloji konferansında konuşuyordu. 

Yapay zeka uygulama geliştiricileri yenilikleri konusunda şeffaf olmalı

İlaçların veya ev aletlerinin güvenlik etiketleri taşıması uygulamasında olduğu gibi, üretken yapay zeka uygulamalarının geliştiricileri de kullanıcıları yapay zeka modelinin kullanımı ve geliştirilmesi konusunda bilgilendirme konusunda net olmalıdır. Aynı zamanda Akıllı Ulus ve Siber Güvenlik girişiminden sorumlu Bakan olan Bayan Teo şunları söyledi:

"Geliştiricilerin ve dağıtımcıların, üretken yapay zeka modellerinin ve uygulamalarının nasıl çalıştığı hakkında bilgi sağlayarak kullanıcılara karşı şeffaf olmalarını tavsiye edeceğiz."

Yaklaşan kuralları açıklayan bakan, bunların bir kullanıcının "reçetesiz ilaç kutusunu" açmasıyla aynı olduğunu söyledi. İlacın nasıl kullanılması gerektiğini ve olası "karşılaşabileceğiniz yan etkileri" açıkça belirten bir kağıt bulurlar.

Teo, tek bir üretken yapay zeka üzerine kurulu yapay zeka sistemleri için "bu seviyede şeffaflığın" gerekli olduğunu ileri sürdü. Yeni kurallar dizisi, bir yapay zeka modelinin kamuya sunulmasından önce uygulanması gereken güvenlik kriterlerini tanımlayacak. 

Veri anonimleştirme kılavuzu 2025'te yayınlanacak

Üretken yapay zeka, yeni metin ve görseller üretebilen ve geleneksel yapay zeka kadar öngörülebilir olmayan bir yapay zeka türüdür. Yeni kurallara göre içerik oluşturucuların içerikte yalan, düşmanca yorum ve önyargılı anlatım yaymanın risklerini belirtmeleri gerekecek.

Teo, ev aletlerinin, ürünün güvenli kullanım açısından test edildiğini açıkça belirten etiketlerle birlikte geldiğini söyledi; aksi takdirde müşteri cihazın güvenli olup olmadığını bilemeyecektir. Aynı şey yapay zeka uygulamaları için de uygulanacaktır. Singapur'un Infocomm Medya Geliştirme Otoritesi (IMDA), yeni kurallar konusunda sektörle istişareye başlayacak. Ancak Teo, yönergeler için bir tarih belirtmedi.

Teo, IMDA'nın ayrıca, kullanıcıların gizliliğini korurken yapay zeka modellerini eğitmek için artan veri talebini karşılayacak, teknolojideki gizlilikle ilgili konulara ilişkin bir kılavuz yayınladığını söyledi.

Ayrıca okuyun: Demokratlar yuvarlak masa toplantısında Mark Cuban ve Brad Garlinghouse kripto düzenlemelerini tartışacak

IMDA genel müdür yardımcısı Denise Wong şunları söyledi: Üretken yapay zekada verileri güvende tutmak sektör için daha zorlu. Etkinlik sırasında yapay zeka ve veri gizliliği konusunda ayrı bir panel tartışmasında görüşlerini aktardı. Panele ChatGPT yapımcısı OpenAI ve danışmanlık firması Accenture'un da aralarında bulunduğu farklı teknoloji firmalarından temsilciler katıldı. 

OpenAI'nin gizlilik hukuku başkanı Jessica Gan Lee, yapay zeka geliştirme ve dağıtımının tüm aşamalarında veri koruma korkuluklarının mevcut olması gerektiğini söyledi. Yapay zeka modellerinin "dünyanın her köşesinden" çeşitli veri kümeleri üzerinde eğitilmesi gerektiğini söyledi. Lee, kişisel veri işlemeyi sınırlamanın yollarını bulmanın yanı sıra yapay zeka eğitimine birden fazla kültür, dil ve kaynağın dahil edilmesi gerektiğini vurguladı.

Teo, ASEAN'da faaliyet gösteren şirketler için 2025'in başlarında veri anonimleştirmeye ilişkin bir kılavuzun tanıtılacağını söyledi. Kılavuz, güvenli bir küresel dijital ekosistem oluşturmanın yollarını araştıran bölge yetkilileri arasında Şubat ayında yapılacak bir toplantıdan kaynaklanacak.