giriiş

Yapay zeka sektörünün son zamanlardaki gelişimi, bazıları tarafından dördüncü sanayi devrimi olarak kabul ediliyor. Büyük modellerin ortaya çıkışı, hayatın her kesiminde verimliliği önemli ölçüde artırdı. Boston Consulting Group, GPT'nin Amerika Birleşik Devletleri'nde iş verimliliğini artırdığına inanıyor. yaklaşık %20 oranında. Aynı zamanda, büyük modellerin getirdiği genelleme yeteneği, yeni bir yazılım tasarım paradigması olarak selamlandı. Geçmişte, yazılım tasarımı kesin kodlarla ilgiliydi, ancak artık yazılım tasarımı, bu yazılımların içine yerleştirilmiş daha genelleştirilmiş büyük model çerçeveleriyle ilgilidir. Daha geniş bir modsal giriş ve çıkış aralığını daha iyi temsil edebilir ve destekleyebilir. Derin öğrenme teknolojisi gerçekten de AI endüstrisine dördüncü patlamayı getirdi ve bu eğilim Kripto endüstrisine de yayıldı.

Çeşitli sektörlerde GPT benimseme oranı sıralaması, Kaynak: Bain AI Anketi

Bu raporda yapay zeka sektörünün gelişim geçmişini, teknoloji sınıflandırmasını ve derin öğrenme teknolojisinin icadının sektöre etkisini detaylı bir şekilde inceleyeceğiz. Ardından, derin öğrenmede GPU, bulut bilişim, veri kaynakları ve uç cihazlar gibi endüstri zincirinin yukarı ve aşağı akışının yanı sıra gelişim durumu ve eğilimlerini de derinlemesine analiz ediyoruz. Daha sonra, esasen Crypto ile AI endüstrisi arasındaki ilişkiyi ayrıntılı olarak tartıştık ve Crypto ile ilgili AI endüstri zincirinin modelini sıraladık.

Yapay zeka endüstrisinin gelişim tarihi

Yapay zeka endüstrisi 1950'lerde başladı. Yapay zeka vizyonunu gerçekleştirmek için akademi ve endüstri, farklı dönemlerde ve farklı disiplinlerden gelen yapay zekayı hayata geçirmek için birçok düşünce ekolü geliştirdi.

Yapay zeka türlerinin karşılaştırması, kaynak: Gate Ventures

AI/ML/DL ilişkisi, kaynak: Microsoft

Modern yapay zeka teknolojisi esas olarak "makine öğrenimi" terimini kullanır. Bu teknolojinin amacı, sistemin performansını artırmak için makinenin görevler arasında yineleme yapmasına izin vermektir. Ana adımlar, verileri algoritmaya beslemek, bu verileri modeli eğitmek için kullanmak, modeli test etmek ve dağıtmak ve otomatik tahmin görevlerini tamamlamak için modeli kullanmaktır.

Şu anda, sırasıyla insanın sinir sistemini, düşüncesini ve davranışını taklit eden bağlantıcılık, sembolizm ve davranışçılık olmak üzere üç ana makine öğrenimi okulu vardır.

Sinir ağı mimarisi diyagramı, kaynak: Cloudflare

Şu anda, sinir ağları tarafından temsil edilen bağlantıcılık üstünlüğe sahiptir (ayrıca derin öğrenme olarak da bilinir). Bunun temel nedeni, bu mimarinin bir giriş katmanına ve bir çıkış katmanına sahip olması, ancak birden fazla katman ve nöron sayısına sahip olmasıdır (. parametreler) ) yeterince büyüdüğünde, karmaşık genel amaçlı görevleri yerine getirmek için yeterli fırsat ortaya çıkar. Veri girişi yoluyla nöronun parametreleri sürekli olarak ayarlanabilir. Daha sonra, birden fazla veriyi deneyimledikten sonra nöron en uygun duruma (parametrelere) ulaşır. Buna büyük bir güçle mucizeler diyoruz ve bu da onun "kökeni" dir. "Derinlik" kelimesi yeterli katman ve nörondur.

Örneğin, bir fonksiyonun oluşturulduğu basitçe anlaşılabilir. X= 2, Y= 3; X= 3 olduğunda Y= 5. Eğer bu fonksiyonun tüm X ile ilgilenmesini istiyorsanız, o zaman tutmanız gerekir. Bu fonksiyonun derecesini ve parametrelerini ekleme Örneğin, bu koşulu Y = 2 olarak karşılayan bir fonksiyon oluşturabilirim. Kaba kuvvet kırma için GPU kullanarak veri noktalarının bir fonksiyonu, Y = olduğunu buldum. Burada X 2 ve X, X 0'ın hepsi farklı nöronları temsil eder ve 1, -3, 5 bunların parametreleridir.

Şu anda, sinir ağına büyük miktarda veri girersek, nöronlar ekleyebilir ve parametreleri yeni verilere uyacak şekilde yineleyebiliriz. Bu tüm verilere uyacaktır.

Derin öğrenme teknolojisinin evrimi, kaynak: Gate Ventures

Sinir ağlarına dayalı derin öğrenme teknolojisi aynı zamanda birden fazla teknolojik yinelemeye ve evrime sahiptir; örneğin yukarıdaki resimdeki en eski sinir ağı, ileri beslemeli sinir ağı, RNN, CNN, GAN ve son olarak aşağıdaki gibi modern büyük modeller tarafından kullanılan Transformer teknolojisine evrilmiştir. GPT, Transformer teknolojisi, sinir ağlarının yalnızca bir evrim yönüdür. Tüm modlardaki (ses, video, resimler vb.) verileri karşılık gelen sayısal değerlere kodlamak için kullanılan ek bir dönüştürücü (Transformer) ekler. Daha sonra sinir ağına girilir, böylece sinir ağı her türlü veriye uyum sağlayabilir, yani çoklu modalite elde edilebilir.

Yapay zekanın gelişimi üç teknolojik dalga yaşadı. İlk dalga, yapay zeka teknolojisinin önerilmesinden on yıl sonra, 1960'larda gerçekleşti. Bu dalga, genel doğal dil işleme ve insan-bilgisayar sorununu çözen sembolizm teknolojisinin gelişmesinden kaynaklandı. Etkileşimli sorular. Aynı zamanda uzman sistem doğdu. Bu, Stanford Üniversitesi tarafından NASA'nın gözetiminde tamamlanan DENRAL uzman sistemidir. Bu sistem, çok güçlü bir kimya bilgisine sahiptir ve kimya uzmanlarıyla aynı cevapları üretebilmektedir. kimya uzmanı Sistem, kimyasal bilgi tabanı ile çıkarım sisteminin birleşimi olarak görülebilir.

Uzman sistemin ardından İsrail asıllı Amerikalı bilim adamı ve filozof Judea Pearl, 1990'lı yıllarda inanç ağı olarak da bilinen Bayes ağını önerdi. Aynı zamanda Brooks, davranışçılığın doğuşuna işaret eden davranış temelli robot bilimi önerdi.

1997'de IBM Deep Blue "Blue" satranç şampiyonu Kasparov'u 3,5: 2,5 mağlup etti. Bu zafer, yapay zekada bir dönüm noktası olarak kabul edildi ve yapay zeka teknolojisi, gelişimin ikinci zirvesini başlattı.

Yapay zeka teknolojisinin üçüncü dalgası 2006'da ortaya çıktı. Derin öğrenmenin üç devi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, verilerin temsillerini öğrenmek için yapay sinir ağlarını bir çerçeve olarak kullanan bir algoritma olan derin öğrenme kavramını önerdiler. Daha sonra RNN ve GAN'dan Transformer ve Stabil Difüzyon'a kadar derin öğrenme algoritmaları yavaş yavaş gelişti. Bu iki algoritma, aynı zamanda bağlantıcılığın da altın çağı olan bu üçüncü teknoloji dalgasını birlikte şekillendirdi.

Derin öğrenme teknolojisinin keşfi ve evrimiyle birlikte, aşağıdakiler de dahil olmak üzere pek çok önemli olay yavaş yavaş ortaya çıkmıştır:

● 2011 yılında IBM'in Watson'ı, Jeopardy bilgi yarışmasında insanları yendi ve şampiyonluğu kazandı.

● 2014 yılında Goodfellow, iki sinir ağının gerçek görünen fotoğraflar oluşturmak için birbirleriyle rekabet etmesine izin vererek öğrenen GAN'ı (Üretken Rekabet Ağı) önerdi. Goodfellow aynı zamanda derin öğrenme alanında önemli giriş kitaplarından biri olan Çiçek Kitabı adlı "Derin Öğrenme" kitabını da yazdı.

● 2015 yılında Hinton ve diğerleri Nature dergisinde bir derin öğrenme algoritması önerdiler. Bu derin öğrenme yönteminin önerisi, akademik çevrelerde ve sektörde anında büyük tepkiye neden oldu.

● 2015 yılında OpenAI kuruldu ve Musk, YC Başkanı Altman, melek yatırımcı Peter Thiel ve diğerleri 1 milyar ABD doları tutarında ortak yatırım yapılacağını duyurdu.

● 2016 yılında, derin öğrenme teknolojisine dayanan AlphaGo, Go dünya şampiyonu ve profesyonel 9-dan Go oyuncusu Lee Sedol ile Go insan-makine savaşında yarıştı ve toplamda 4'e 1'lik bir skorla kazandı.

● 2017 yılında Çin'in Hong Kong şehrinde Hanson Robotics tarafından geliştirilen insansı robot Sophia, tarihte birinci sınıf vatandaşlık alan ilk robot olup, zengin yüz ifadeleri ve insan dilini anlama yeteneklerine sahiptir.

● Yapay zeka alanında oldukça fazla yetenek ve teknik birikime sahip olan Google, 2017 yılında "İhtiyacınız olan tek şey dikkat" makalesini yayınlayarak Transformer algoritmasını önerdi ve büyük ölçekli dil modelleri ortaya çıkmaya başladı.

● 2018 yılında OpenAI, o zamanın en büyük dil modellerinden biri olan Transformer algoritmasını temel alan GPT'yi (Generative Pre-trained Transformer) piyasaya sürdü.

● 2018 yılında Google ekibi Deepmind, proteinlerin yapısını tahmin edebilen ve yapay zeka alanında büyük ilerlemenin işareti olarak kabul edilen, derin öğrenmeye dayalı AlphaGo'yu piyasaya sürdü.

● 2019'da OpenAI, 1,5 milyar parametreli bir model olan GPT-2'yi piyasaya sürdü.

● 2020'de OpenAI tarafından geliştirilen GPT-3, önceki sürüm GPT-2'den 100 kat daha yüksek olan 175 milyar parametreye sahiptir. Model, eğitim için 570 GB metin kullanır ve birden fazla NLP (doğal dil işleme) görevinde kullanılabilir ( en son teknolojiye sahip performansa ulaşmak için soruları yanıtlamak, çeviri yapmak, makaleler yazmak).

● 2021'de OpenAI, GPT-4'ü piyasaya sürdü. Bu model, GPT-3'ün 10 katı olan 1,76 trilyon parametreye sahiptir.

● Ocak 2023'te GPT-4 modelini temel alan ChatGPT uygulaması hayata geçirildi. Mart ayında ChatGPT 100 milyon kullanıcıya ulaşarak tarihte 100 milyon kullanıcıya ulaşan en hızlı uygulama oldu.

● 2024'te OpenAI, GPT-4 omni'yi piyasaya sürüyor.

Derin öğrenme endüstri zinciri

Şu anda büyük model diller sinir ağlarına dayalı derin öğrenme yöntemlerini kullanıyor. GPT'nin başını çektiği büyük modeller, bir yapay zeka çılgınlığı dalgası yarattı. Bu yola çok sayıda oyuncu akın etti. Bu nedenle, raporun bu bölümünde, pazarın veri ve bilgi işlem gücüne olan talebinin patlama yaşadığını da tespit ettik. Derin öğrenme algoritmalarının hakim olduğu yapay zeka endüstrisindeki endüstriyel öğrenme algoritmaları zincirini, yukarı ve aşağı yönlü bileşenlerinin nasıl olduğunu ve mevcut durumun, arz ve talep ilişkisinin ve yukarı yönlü gelişimin ne olduğunu araştırıyoruz. ve aşağı yönde.

GPT eğitimi Pipeline Kaynak: WaytoAI

Öncelikle Transformer teknolojisine dayalı GPT'ye dayalı LLM'leri (büyük modeller) eğitirken üç adımın olduğunu açıkça belirtmemiz gerekiyor.

Eğitim öncesinde Transformer tabanlı olduğundan dönüştürücünün metin girişini sayısal değerlere dönüştürmesi gerekir. Bu işleme "Tokenizasyon" adı verilir ve daha sonra bu sayısal değerlere Token adı verilir. Genel bir kurala göre, bir İngilizce kelime veya karakter kabaca bir Token olarak kabul edilebilir ve her Çince karakter de kabaca iki Token olarak kabul edilebilir. Bu aynı zamanda GPT fiyatlandırmasında kullanılan temel birimdir.

İlk adım ön eğitimdir. Raporun ilk bölümündeki (X, Y) örneklerine benzer şekilde girdi katmanına yeterli miktarda veri çifti vererek modelin altındaki her bir nöronun optimal parametrelerini bulabiliriz. Bu da büyük miktarda veri gerektirir ve bu işlem. aynı zamanda en zahmetli olanıdır. Hesaplama açısından yoğun bir süreçtir çünkü çeşitli parametreleri denemek için nöronları tekrar tekrar yinelemek gerekir. Bir veri kümesi eğitildikten sonra, aynı veri kümesi genellikle parametreleri yinelemek için ikincil eğitim için kullanılır.

İkinci adım ince ayardır. İnce ayar, eğitim için çok yüksek kalitede daha küçük bir veri kümesi vermektir. Bu tür değişiklikler, modelin çıktısının daha yüksek kalitede olmasını sağlayacaktır çünkü ön eğitim büyük miktarda veri gerektirir, ancak birçok veri hatalar içerebilir. veya düşük kalite. İnce ayar adımı, iyi verilerle modelin kalitesini artırabilir.

Üçüncü adım öğrenmeyi güçlendirmektir. Öncelikle "ödül modeli" dediğimiz yepyeni bir model oluşturulacak. Bu modelin amacı çok basit yani çıktı sonuçlarını sıralamak. Dolayısıyla işletme açısından bu modeli uygulamak nispeten basit olacak. senaryo nispeten dikeydir. Bu model daha sonra büyük modelimizin çıktısının yüksek kalitede olup olmadığını belirlemek için kullanılır, böylece büyük modelin parametrelerini otomatik olarak yinelemek için bir ödül modeli kullanılabilir. (Ancak bazen modelin çıktı kalitesini değerlendirmek için insan katılımına ihtiyaç duyulur)

Kısacası, büyük modellerin eğitim sürecinde, ön eğitimin veri miktarı açısından çok yüksek gereksinimleri vardır ve en fazla GPU hesaplama gücünü tüketir; ince ayar ise parametreleri iyileştirmek ve öğrenmeyi güçlendirmek için daha yüksek kalitede veri gerektirir. Parametreler yinelenebilir. Daha kaliteli sonuçlar elde etmek için bir ödül modeli aracılığıyla.

Eğitim süreci sırasında, ne kadar çok parametre varsa, genelleme yeteneğinin tavanı da o kadar yüksek olur. Örneğin, bir fonksiyon örneğimizde, Y = aX + b, o zaman aslında iki nöron X ve X 0 vardır, yani parametreler. Ne kadar değişirse değişsin sığabileceği veriler son derece sınırlıdır, çünkü özü hâlâ düz bir çizgidir. Daha fazla nöron varsa, daha fazla parametre yinelenebilir ve daha fazla veri sığdırılabilir. Bu nedenle büyük modeller harikalar yaratır ve bu aynı zamanda popüler ismin de büyük modeller olmasının nedenidir. ve veriler büyük miktarda bilgi işlem gücü gerektirir.

Bu nedenle, büyük modellerin performansı temel olarak üç unsur tarafından belirlenir: parametre sayısı, veri miktarı ve kalitesi ve hesaplama gücü. Bu üç unsur, büyük modellerin sonuç kalitesini ve genelleme yeteneğini birlikte etkiler. Parametre sayısının p ve veri miktarının n (Token sayısına göre hesaplanmıştır) olduğunu varsayarız, ardından gerekli hesaplama miktarını genel kurallar aracılığıyla hesaplayabiliriz, böylece yaklaşık hesaplama gücünü tahmin edebiliriz. satın almamız ve eğitim süresini almamız gerekiyor.

Hesaplama gücü genellikle kayan nokta işlemini temsil eden temel birim olarak Flop'lara dayanır. Kayan nokta işlemleri, 2,5+ 3,557 gibi tam sayı olmayan değerlerin toplanması, çıkarılması, çarpılması ve bölünmesi için kullanılan genel bir terimdir. ondalık sayıları getirebildiği ve FP 16, ondalık sayıları desteklediği anlamına gelir, FP 32 ise genellikle daha yaygın olan kesinliktir. Uygulamadaki temel kurala göre, büyük bir modelin bir kez (genellikle birden çok kez) ön eğitimi yaklaşık 6 np Flops gerektirir ve 6'ya endüstri sabiti denir. Çıkarım (Bir veri girdiğimiz ve büyük modelin çıktısını beklediğimiz süreç olan çıkarım), n token girişi ve n token çıkışı olmak üzere iki parçaya bölünmüştür, dolayısıyla toplamda yaklaşık 2 np Flop gereklidir.

İlk günlerde CPU çipleri, bilgi işlem gücü desteği sağlamak amacıyla eğitim için kullanılıyordu, ancak daha sonra bunların yerini Nvidia'nın A 100 ve H 100 çipleri gibi GPU'lar almaya başladı. Çünkü CPU genel amaçlı bir hesaplama olarak mevcuttur ancak GPU, enerji tüketimi verimliliğinde CPU'yu çok aşan özel bir hesaplama olarak kullanılabilir. GPU'lar kayan nokta işlemlerini esas olarak Tensor Core adı verilen bir modül aracılığıyla çalıştırır. Bu nedenle genel çipler, ana hesaplama gücünü temsil eden ve aynı zamanda çipin ana ölçüm göstergelerinden biri olan FP 16 / FP 32 hassasiyetinde Flops verilerine sahiptir.

Nvidia A 100 çipinin özellikleri, Kaynak: Nvidia

Dolayısıyla okuyucuların bu firmaların çip tanıtımlarını anlayabilmesi gerekiyor. Yukarıdaki şekilde görüldüğü gibi Nvidia'nın A 100 80 GB PCIe ve SXM modelleri karşılaştırıldığında PCIe ve SXM'nin Tensor Core (a) altında olduğu görülebilmektedir. AI hesaplamaya ayrılmış modül). FP 16 hassasiyetinde sırasıyla 312 TFLOPS ve 624 TFLOPS'tur (Trilyon Flop).

Büyük model parametrelerimizin GPT 3'ü örnek aldığını varsayarsak, 175 milyar parametre ve 180 milyar Token (yaklaşık 570 GB) veri hacmi vardır. Daha sonra bir ön eğitim sırasında 6 np Flop gereklidir, bu da yaklaşık 3.15*'dir. 1022 Flops, TFLOPS (Trilyon FLOP) cinsinden ölçülürse yaklaşık 3,15* 1010 TFLOPS'tur; bu, bir SXM model çipin GPT 3'ü bir kez önceden eğitmesinin yaklaşık 50480769 saniye, 841346 dakika, 14022 saat ve 584 gün sürdüğü anlamına gelir .

Bu devasa hesaplamanın, ön eğitim gerçekleştirmek için birden fazla son teknoloji ürünü çip gerektirdiğini görüyoruz. Üstelik GPT 4'ün parametre miktarı, GPT 3'ün (1,76 trilyon) on katı kadar. Veriler Miktar değişmeden kalırsa, çip sayısının on kat daha fazla satın alınması gerekir ve GPT-4 Token sayısı 13 trilyon olur, bu da GPT-3'ün on katıdır. çip sayısının 100 katından fazlasını gerektirir.

Büyük model eğitimlerinde veri depolama konusunda da sıkıntı yaşıyoruz çünkü GPT 3 Token sayımız 180 milyar olup yaklaşık 570 GB depolama alanı kaplar, 175 milyar parametreli büyük model sinir ağı ise yaklaşık 700 GB yer kaplar. depolama alanı. GPU'nun bellek alanı genel olarak küçüktür (yukarıdaki şekilde gösterildiği gibi A 100 80 GB'dir), bu nedenle bellek alanı verileri barındıramadığında çipin bant genişliğinin yani iletimin incelenmesi gerekir. Verilerin sabit diskten belleğe hızı. Aynı zamanda tek bir çip kullanmayacağımız için, büyük bir modeli birden fazla GPU çipi üzerinde ortaklaşa eğitmek için GPU'nun çipler arasındaki aktarım hızını içeren ortak bir öğrenme yöntemi kullanmamız gerekiyor. Bu nedenle çoğu durumda son model eğitim uygulamasını kısıtlayan faktör veya maliyet, mutlaka çipin bilgi işlem gücü değil, çoğunlukla çipin bant genişliğidir. Veri iletimi yavaş olduğundan modelin çalıştırılması daha uzun sürecek ve güç maliyeti artacaktır.

H 100 SXM yongası Teknik Özellikleri, Kaynak: Nvidia

Şu anda okuyucular, FP 16'nın hassasiyeti temsil ettiği çipin Spesifikasyonunu kabaca tam olarak anlayabilirler. Tensor Core bileşeni esas olarak AI Yüksek Lisans'larını eğitmek için kullanıldığından, yalnızca bu bileşenin altındaki bilgi işlem gücüne bakmanız gerekir. FP 64 Tensör Çekirdeği, 64 hassasiyette saniyede 67 TFLOPS işleme kapasitesine sahip H 100 SXM'yi temsil eder. GPU belleği, çipin belleğinin yalnızca 64 GB olması anlamına geliyor ve bu da büyük modellerin veri depolama gereksinimlerini tam olarak karşılayamıyor. Dolayısıyla, GPU bellek bant genişliği, H 100 SXM'nin veri iletim hızının 3,35 TB/s olduğu anlamına geliyor.

Yapay Zeka Değer Zinciri, Kaynak: Nasdaq

Veri sayısının ve nöron parametrelerinin genişlemesinin, hesaplama gücü ve depolama gereksinimlerinde büyük bir boşluğa yol açtığını gördük. Bu üç ana unsur bütün bir endüstriyel zincirin oluşmasını sağladı. Yukarıdaki şekle dayanarak endüstriyel zincirdeki her bir parçanın rolünü ve işlevini tanıtacağız.

Donanım GPU sağlayıcısı

AI GPU çip Sıralaması, Kaynak: Lambda

GPU gibi donanımlar şu anda eğitim ve çıkarım için ana çiptir. GPU çiplerinin ana tasarımcılarına gelince, Nvidia şu anda mutlak lider konumdadır. oyun GPU'su); endüstri, büyük modellerin ticarileştirilmesi için çoğunlukla H 100, A 100 vb. kullanır.

Listede neredeyse Nvidia'nın çipleri hakim durumda ve tüm çipler Nvidia'dan geliyor. Google'ın ayrıca TPU adı verilen kendi AI çipi var, ancak TPU esas olarak Google Cloud tarafından B tarafı şirketlere bilgi işlem gücü desteği sağlamak için kullanılıyor ve genellikle Nvidia GPU'ları satın alma eğiliminde.

Şirkete Göre H 100 GPU Satın Alma İstatistikleri,Kaynak:Omdia

Çin'deki yüzden fazla büyük model de dahil olmak üzere çok sayıda şirket LLM'lerin araştırma ve geliştirmesine girişti ve dünya çapında toplam 200'den fazla büyük dil modeli yayınlandı. Pek çok İnternet devi bu yapay zeka patlamasına katılıyor. Bu firmalar büyük modelleri ya kendileri satın alıyor ya da bulut şirketleri aracılığıyla kiralıyor. 2023 yılında Nvidia'nın en gelişmiş çipi H 100 piyasaya sürülür sürülmez birçok firma tarafından abone olundu. H 100 yongalarına olan küresel talep, arzı çok aşıyor çünkü şu anda yalnızca Nvidia en üst düzey yongaları tedarik ediyor ve sevkiyat döngüsü şaşırtıcı bir şekilde 52 haftaya ulaştı.

Nvidia'nın tekelini göz önünde bulundurarak yapay zekanın mutlak liderlerinden biri olan Google liderliği ele geçirdi; Intel, Qualcomm, Microsoft ve Amazon, Nvidia'nın dünya üzerindeki mutlak etkisinden kurtulmak için GPU'ları ortaklaşa geliştirmeyi umarak CUDA Alliance'ı ortaklaşa kurdular. derin öğrenme endüstri zinciri.

Çok büyük teknoloji şirketleri/bulut hizmet sağlayıcıları/ulusal laboratuvarlar, HPC (yüksek performanslı bilgi işlem merkezleri) oluşturmak için genellikle binlerce veya onbinlerce H 100 yongası satın alırlar. Örneğin, Tesla'nın CoreWeave kümesi on bin adet H 100 80 GB satın aldı. ortalama satın alma fiyatı 44.000 ABD Dolarıdır (Nvidia maliyeti yaklaşık 1/10) ve toplam maliyet 440 milyon ABD Dolarıdır; Tencent 50.000 parça satın aldı ve 2023'ün sonuna kadar tek yüksek performanslı ürün satın aldı. GPU satıcısı Nvidia 500.000'den fazla H100 yongası sipariş etti.

Nvidia GPU ürün yol haritası, Kaynak: Techwire

Nvidia'nın çip tedariği açısından yukarıdaki ürün yineleme yol haritası şu şekildedir: Bu rapor itibarıyla H 200'ün performansının H 100'ün iki katı olması beklenirken, B 100'ün performansı açıklandı. 2024'ün sonu veya 2025'in başında piyasaya sürülecek. GPU'ların mevcut gelişimi, performansın her 2 yılda bir ikiye katlanması ve fiyatların yarı yarıya düşmesiyle hala Moore Yasasını karşılamaktadır.

bulut servis sağlayıcısı

GPU Bulut Türleri, Kaynak: Salesforce Ventures

Bulut hizmeti sağlayıcıları, HPC oluşturmak için yeterli sayıda GPU satın aldıktan sonra, sınırlı fonlara sahip yapay zeka şirketlerine esnek bilgi işlem gücü ve yönetilen eğitim çözümleri sağlayabilir. Yukarıdaki şekilde gösterildiği gibi, mevcut pazar temel olarak üç tür bulut bilişim güç sağlayıcısına bölünmüştür. İlk tür, geleneksel bulut satıcıları tarafından temsil edilen bulut bilişim güç platformlarının (AWS, Google, Azure) ultra büyük ölçekli genişlemesidir. . İkinci kategori, esas olarak yapay zeka veya yüksek performanslı bilgi işlem için tasarlanmış olan dikey yoldaki bulut bilişim güç platformudur. Bu tür platformlar daha profesyonel hizmetler sağlar, dolayısıyla bu tür devlerle rekabette hala belirli bir pazar alanı vardır. Gelişmekte olan Dikey endüstri bulut hizmeti şirketleri arasında CoreWeave (C Serisi finansmanda 19 milyar ABD Doları değerinde 11 ABD Doları aldı), Crusoe, Lambda (C Serisi finansmanda 1,5 milyar ABD Dolarının üzerinde değerde 260 milyon ABD Doları aldı) vb. yer alıyor. Üçüncü tür bulut hizmeti sağlayıcıları, esas olarak hizmet olarak çıkarım sağlayıcıları olan yeni pazar oyuncularıdır. Bu hizmet sağlayıcılar, GPU'ları bulut hizmeti sağlayıcılarından kiralar ve bu hizmet sağlayıcılar çoğunlukla müşteriler için önceden eğitilmiş modeller kullanır ve bunları temel alır. İnce ayar veya muhakeme yaparak, bu tür bir pazardaki temsili şirketler arasında Together.ai (en son değerleme 1,25 milyar ABD doları), Fireworks.ai (Kıyaslama liderliğindeki yatırım, 25 milyon ABD doları tutarında A Serisi finansman) vb. yer alır.

Eğitim veri kaynağı sağlayıcısı

Daha önce ikinci bölümümüzde de belirttiğimiz gibi, büyük model eğitimi temel olarak ön eğitim, ince ayar ve takviyeli öğrenme olmak üzere üç adımdan geçer. Ön eğitim büyük miktarda veri gerektirir, ince ayar ise yüksek kaliteli veri gerektirir. Bu nedenle Google (büyük miktarda veriye sahip olan) ve Reddit (yüksek kaliteli yanıt verisine sahip olan) gibi veri şirketleri yaygınlaştı. piyasanın dikkatini çekti.

GPT gibi genel amaçlı büyük modellerle rekabet etmemek için bazı geliştiriciler alt bölümlere ayrılmış alanlarda geliştirmeyi tercih ediyor. Bu nedenle veri gereksinimleri, verilerin finans, tıp, kimya, fizik, biyoloji gibi sektöre özgü olması haline geliyor. vb. Görüntü tanıma vb. Bunlar belirli alanlara yönelik modellerdir ve belirli alanlarda veri gerektirir. Dolayısıyla bu büyük modeller için veri sağlayan şirketler de bulunmaktadır. Veri etiketleme şirketleri yani veriyi topladıktan sonra daha kaliteli ve daha kaliteli bir şekilde etiketlemek anlamına gelir. belirli veri türü.

Model geliştiren şirketler için büyük miktarda veri, yüksek kaliteli veri ve spesifik veriler üç ana veri talebidir.

Başlıca Veri Etiketleme Şirketleri, Kaynak: Venture Radar

Microsoft tarafından yapılan bir araştırma, SLM (küçük dil modeli) için, eğer veri kalitesi büyük dil modellerinden önemli ölçüde daha iyiyse, performanslarının LLM'lerden mutlaka daha kötü olmayacağına inanmaktadır. Ve aslında GPT'nin özgünlük ve veri açısından bariz bir avantajı yok. Başarısına katkıda bulunan şey esas olarak bu yöndeki cesurluğudur. Sequoia America ayrıca GPT'nin gelecekte de rekabet avantajı sağlamayabileceğini, çünkü şu anda bu alanda derin bir hendek bulunmadığını ve asıl sınırlamanın bilgi işlem gücü elde etme sınırlamasından kaynaklandığını da kabul etti.

Veri miktarına gelince, EpochAI'nin öngörüsüne göre, model ölçeğinin mevcut büyümesine göre, düşük kaliteli ve yüksek kaliteli tüm veriler 2030 yılında tükenecek. Bu nedenle endüstri şu anda yapay zeka sentetik verilerini araştırıyor, böylece sınırsız veri üretilebiliyor ve bu durumda darboğaz yalnızca hesaplama gücü oluyor. Bu yön hala keşif aşamasındadır ve geliştiricilerin dikkatini hak etmektedir.

Veritabanı sağlayıcısı

Verilerimiz var, ancak verilerin eklenmesini, silinmesini, değiştirilmesini ve geri alınmasını kolaylaştırmak için verilerin genellikle bir veritabanında saklanması da gerekiyor. Geleneksel İnternet işinde MySQL'i duymuş olabiliriz ve Ethereum istemcisi Reth'te Redis'i duymuş olabiliriz. Bunlar, iş verilerini veya verileri blockchain üzerinde sakladığımız yerel veritabanlarıdır. Farklı veri türleri veya işletmeler için farklı veritabanı uyarlamaları vardır.

Yapay zeka verileri ve derin öğrenme eğitimi çıkarım görevleri için sektörde halihazırda kullanılan veritabanına "vektör veritabanı" adı veriliyor. Vektör veritabanları, büyük miktarlarda yüksek boyutlu vektör verilerini verimli bir şekilde depolamak, yönetmek ve indekslemek için tasarlanmıştır. Verilerimiz sadece sayısal değerler veya metin değil, resim ve ses gibi büyük miktarda yapılandırılmamış veriler olduğundan, vektör veritabanları bu yapılandırılmamış verileri "vektörler" biçiminde depolayabilir ve vektör veritabanları bu Vector depolama ve işlemeye uygundur.

Vektör Veritabanı Sınıflandırması, Kaynak: Yingjun Wu

Şu anda ana oyuncular arasında Chroma (18 milyon ABD doları finansman elde edildi), Zilliz (en son finansman turu 60 milyon ABD dolarıydı), Pinecone, Weaviate vb. yer alıyor. Veri hacmine olan talebin artması ve çeşitli alt bölümlerde büyük model ve uygulamaların patlamasıyla birlikte Vektör Veritabanına olan talebin önemli ölçüde artmasını bekliyoruz. Bu alanda güçlü teknik engeller bulunduğundan, yatırım yaparken olgun ve müşterileri olan şirketlere daha fazla önem verilecektir.

kenar cihazı

Bir GPU HPC (Yüksek Performanslı Bilgi İşlem Kümesi) oluştururken genellikle büyük miktarda enerji tüketilir ve bu da büyük miktarda ısı enerjisi üretir. Yüksek sıcaklıktaki bir ortamda çip, sıcaklığı azaltmak için çalışma hızını sınırlayacaktır. HPC'nin çalışmaya devam etmesini sağlamak için bazı soğutma cihazları gerektiren, genellikle "frekans azaltma" olarak adlandırdığımız şeydir.

Dolayısıyla burada endüstriyel zincirin iki yönü söz konusudur; enerji temini (genellikle elektrik enerjisi kullanılarak) ve soğutma sistemi.

Şu anda enerji arzı tarafında ağırlıklı olarak elektrik kullanılıyor ve veri merkezleri ve destek ağları şu anda küresel elektrik tüketiminin %2-%3'ünü oluşturuyor. BCG, derin öğrenme büyük modellerinin parametrelerindeki artış ve çiplerin yinelenmesiyle birlikte, büyük modelleri eğitmek için gereken gücün 2030 yılına kadar üç katına çıkacağını öngörüyor. Şu anda yerli ve yabancı teknoloji üreticileri enerji şirketlerine aktif olarak yatırım yapıyor. Yatırımın ana enerji alanları arasında jeotermal enerji, hidrojen enerjisi, pil depolama ve nükleer enerji yer alıyor.

HPC kümesi soğutması açısından hava soğutma şu anda ana yöntemdir, ancak birçok VC, HPC'nin düzgün çalışmasını sürdürmek için sıvı soğutma sistemlerine yoğun yatırım yapmaktadır. Örneğin Jetcool, sıvı soğutma sisteminin H 100 kümesinin toplam güç tüketimini %15 oranında azaltabileceğini iddia ediyor. Şu anda sıvı soğutma temel olarak üç araştırma yönüne ayrılmıştır: soğuk formatlı sıvı soğutma, daldırma sıvı soğutma ve sprey sıvı soğutma. Bu alandaki şirketler şunlardır: Huawei, Green Revolution Cooling, SGI, vb.

başvuru

Yapay zeka uygulamalarının mevcut gelişimi, blockchain endüstrisinin gelişimine benzer. Yenilikçi bir endüstri olarak Transformer, 2017'de önerildi ve OpenAI, büyük modelin etkinliğini ancak 2023'te doğruladı. Yani artık birçok Fomo firması büyük modellerin Ar-Ge parkurunda kalabalık yani altyapı çok kalabalık ama uygulama geliştirme buna ayak uyduramıyor.

Aylık ilk 50 aktif kullanıcı, Kaynak: A16Z

Şu anda, ilk on aydaki aktif yapay zeka uygulamalarının çoğu, arama tipi uygulamalardır. Ortaya çıkan gerçek yapay zeka uygulamaları ise hala oldukça sınırlıdır. Uygulama türleri nispeten tektir ve sosyal ve diğer türde uygulamalar yoktur. başarıyla ortaya çıktılar.

Ayrıca büyük modellere dayanan yapay zeka uygulamalarının elde tutulma oranının, mevcut geleneksel İnternet uygulamalarına göre çok daha düşük olduğunu gördük. Aktif kullanıcı sayısı bakımından, geleneksel İnternet yazılımının medyanı %51 olup, en yüksek olanı güçlü kullanıcı bağlılığı olan Whatsapp'tır. Ancak yapay zeka uygulaması tarafında en yüksek GEKS/MAU, yalnızca %41 ile Character.ai'dir ve GEKS, toplam kullanıcı sayısının ortalama %14'ünü oluşturmaktadır. Kullanıcıyı elde tutma oranı açısından en iyi geleneksel İnternet yazılımı Youtube, Instagram ve Tiktok'tur. İlk ondaki ortalama elde tutma oranı %63'tür, buna karşılık ChatGPT'nin elde tutma oranı yalnızca %56'dır.

AI Uygulama Manzarası, Kaynak: Sequoia

Sequoia America'nın raporuna göre uygulamaları rol odaklı perspektiften, yani profesyonel tüketiciler, işletmeler ve sıradan tüketiciler için üç kategoriye ayırıyor.

1. Tüketici odaklı: genellikle soru-cevap için GPT kullanan metin çalışanları, otomatik 3D oluşturma modelleme, yazılım düzenleme, otomatik aracılar ve sesli konuşmalar, arkadaşlık, dil alıştırmaları vb. için Ses tipi uygulamaları kullanma gibi üretkenliği artırmak için kullanılır. .

2. İşletmeler için: genellikle pazarlama, hukuk, tıbbi tasarım ve diğer endüstriler.

Artık pek çok kişi altyapının uygulamalardan çok daha büyük olduğunu eleştirse de biz aslında modern dünyanın yapay zeka teknolojisiyle büyük ölçüde yeniden şekillendirildiğine inanıyoruz ancak ByteDance Music altında TikTok, Toutiao ve Soda gibi öneri sistemlerini kullanıyor. Xiaohongshu ve WeChat video hesaplarının yanı sıra reklam öneri teknolojisi vb. de bireylere özel önerilerdir ve bunların hepsi makine öğrenimi algoritmalarıdır. Dolayısıyla mevcutta hızla gelişen derin öğrenme, yapay zeka sektörünü tam anlamıyla temsil edemiyor. Genel yapay zekayı gerçekleştirme olanağına sahip olan ve aynı zamanda paralel olarak gelişen birçok potansiyel teknoloji mevcut ve bu teknolojilerden bazıları çeşitli endüstrilerde yaygın olarak kullanılıyor. .

Peki Crypto x AI arasında nasıl bir ilişki gelişiyor? Kripto endüstrisi Değer Zincirinde başka hangi projeler dikkate değer? "Gate Ventures: Girişten ustalığa AI x Crypto (Bölüm 2)" yazımızda tek tek anlatacağız.

Yasal Uyarı:

Yukarıdaki içerik yalnızca referans amaçlıdır ve herhangi bir tavsiye olarak değerlendirilmemelidir. Yatırım yapmadan önce daima profesyonel tavsiye alın.

Gate Ventures Hakkında

Gate.io'nun risk sermayesi kolu olan Gate Ventures, Web 3.0 çağında dünyayı yeniden şekillendirecek merkezi olmayan altyapı, ekosistemler ve uygulamalara yapılan yatırımlara odaklanıyor. Gate Ventures, toplum ve finansın etkileşim şeklini yeniden tanımlamak amacıyla ekipleri ve startupları yenilikçi düşünce ve yeteneklerle güçlendirmek için küresel sektör liderleriyle iş birliği yapıyor.

Resmi web sitesi: https://ventures.gate.io/

Twitter:https://x.com/gate_ventures

Ortam:https://medium.com/gate_ventures