Open ve Google'ın verilerini model olarak nasıl uygun hale getirdikleri konusundaki son tartışmayı tartışırken, tartışmaya iki terimin daha çok hakim olduğunu fark edeceksiniz: açık ve Google. The Wall Street Journal ve NY Times'da yakın zamanda yayınlanan makaleler, yapay zeka ile ilgili şirketlerin veri toplama şeklinin istenilen düzeyde olmadığını ve hangi verilerin doğru olduğu ve yapay zeka ile ilgili sistemin oluşturulmasında hangi etik açının kullanıldığı konusunda baş ağrısı yarattığını gösteriyor. .

OpenAI'nin şüpheli taktikleri

Ancak zirve noktasında New York Times, Whisper ile ortaya konulan Açık Yapay Zekanın daha büyük sonuçlarını vurguladı. Bu sesten metne transkripsiyon modeli, Open AI'nin Dil İşlemcisi LP-4 teknolojisinin tamamlayıcısı olarak geliştirilmiştir. Aslında OpenAI'nin sürücüsüz arabası, şirketin temas ettiği zorlu bir konu olan bilgi toplama yoluyla değil; daha ziyade ikincisi bu tür koşullar altında devreye girer.

Veri toplama kanunlarının başlangıçtaki popülaritesi adil kullanım telif hakkı hususlarıyla ilgili olsa da, ikincisi aynı zamanda bu kanunların yasal dayanağı haline geldi. Brockman'ın belirttiği gibi, OpenAI'nin kurucu üyelerinden biri ve CEO'su, transkripsiyon için gerekli bazı bilgileri sağladı. Ancak tarihçinin de transkripsiyona katkıda bulunduğunu söylüyor.

Ancak Google Corporation, bunun gibi daha büyük girişimlerde bu küçük sorunlar için bile ön plana çıkıyor, yani OpenAI gibi bir veri toplama işlevi daha küçük bir kuruluştur ve sektör devine yönelik projelerle ilgilenmektedir ve kullanıcı yalnızca uyarılmıştır. ve YouTube tarafından kimin suçlanacağı söylenmedi.

Bu yaklaşımın yanı sıra Facebook, TOS'a uyumluluk esasını da kapsadı ve özellikle veri kazıma olarak adlandırılan yetkisiz eylemleri yasakladı. John Conly (YouTube sözcüsü) ise içerik oluşturuculardan veri topladıktan sonra modellerin içerik tabanlı yapay zeka eğitimi için kullanılıp kullanılmadığı sorusuna yanıt verdi.

Aksine. Meta'nın gerçekleştirilemezliğine yol açan güncel bir sorun olduğu eğitim makinelerinin yanı sıra. OpenAI rekabetinde başarılı olan firmadaki AI grubu, her iki ekibin de şirketleri için daha iyi bir sonuç üzerinde çalışmak için, reddedilen tarafın lehine hiçbir konuya dikkat etmeden orijinal düşünme de dahil olmak üzere mevcut tüm araçları kullandığını düşünüyordu.

Meta, devredilen çalışmaların ne olacağı, belirli alanlarda uzmanlaşmış yayıncıların hangi kitaplardan satın alınmasından kimin sorumlu olacağı konusunda cevabını almayı hedeflediği türden sorular hazırlamış görünüyor. Ağın kullanıcı deneyimi son derece şaşırtıcı olmasına rağmen yerleşik hükümet politikası, 2018'de Cambridge Analytica olayıyla vurgulanan şekilde bireysel gizliliğe müdahale etme girişimini ele geçirdi.

Daha geniş yapay zeka eğitim ortamı acil bir ikilemle karşı karşıya: Bir tarafta veri eksikliğine ilişkin soru, diğer tarafta son birkaç yılda daha da ciddileşti. İkisi arasındaki bağlantı devam etse de, araştırmacılar her zaman gelişmiş doğruluk ve performans artışı için yeterli veriye sahip olmakta ısrar ediyorlar.

Ayrıca, Wall Street Journal'ın 2020 yılı başına kadar tüm hedeflerin ötesinde yükselişler öngören ve yıl sonunu piyasanın en yüksek noktasıyla geçeceğini öngören öngörüsü heyecan uyandırıyor. Bu yöntem iki faktöre dayanmaktadır: dış matrisi belirtmek için sentetik olabilen modellere güvenmek ve modellerin kararlarından öğrendiği bir karar verme süreci müfredatına dayanmak. Sonuç üretmelerini beklemeyin, ancak gözlemlenebilir olmalarına izin verin.

Yasal ve etik çıkarımlar

Korsanlık kuralının olmaması sorun yaratabilir çünkü hiçbir şey kullanıcıların telif hakkıyla korunan öğelere erişmesine izin veremez ve yasa, etik vb. etrafında misyon anlayışı ortaya çıkabilir. Veriler, soyut bir mülk haline gelir ve neyin size ait olduğunu ve neyin size ait olduğunu bilmenin ve belirtmenin temeli haline gelir mi? değil, bu verinin kullanımı izinsiz olduğunda hangi veri ve kullanıcının işin kaynağı olduğu biliniyor? Bu risk, Ar-Ge ekibinin programının bunları incelemeye ve yanıtlar bulmaya odaklanmasına yol açacaktır.

Toplu dava kampanyalarının amacındaki ilişki, mahremiyet ve veri kullanımının, kuruluşun faaliyetlerini yasal kılmak için yeterince bilmediği yanıtlar olduğunu gerektirecektir. Aslında zorluklar (yapay zeka araştırma ve geliştirmesi için kullanılan veri madenciliği sürecine ilişkin etik konular gibi) karmaşık hale geliyor çünkü düzenleme kısıtlamalarını ve verilerin gizliliğini dikkate almak zorundayız (çünkü verilerin doğası bağlam içindedir). Verilerin nasıl işlendiği ve kullanıldığı).

Geleceğin en zorlu yapay zeka rekabeti, yapay zeka sistemlerinin eğitimi için en iyi verilerin belirlenmesinde yatıyor ve daha da önemlisi, bu tür verilerin ortak etik veya yasal düzenleyici çerçevelerden geçip geçmeyeceğiyle ilgili. Yapay zekayla ilgili her şey, doğası gereği, kurumlara yönelik veri seti filtreleri yoluyla inovasyon ve uygulama gibi kavramları vurguluyor ve genişletiyor.

Teknolojik Yapay Zeka Olmak Hiçbir Zaman Statik Değildir, Dolayısıyla Her Zaman Temel Sorun Veri Kullanımı Olacak Ve Yapay Zekayı En İyi Şekilde Kullanarak Şekil Alan Topluluk Üyelerinin Önceliklerinden Biri Olmaya Devam Edecektir.

Orijinal hikaye: https://www.nytimes.com/2024/04/06/teknoloji/tech-giants-harvest-data-artificial-intelligence.html?smid=nytcore-ios-share&sgrp=c-cb