Szef AI w Meta, Yann LeCun, powiedział, że jest zbyt wcześnie, aby martwić się inteligentnymi systemami sztucznej inteligencji na poziomie człowieka, powszechnie określanymi jako AGI. 

Przeczytaj także: Bliższe spojrzenie na spekulacje AGI

„W tej chwili nie mamy nawet śladu projektu inteligentnego systemu na poziomie człowieka” – napisał LeCun w X Monday. „Więc jest za wcześnie, aby się tym martwić. Jest też zdecydowanie za wcześnie, aby to uregulować, aby zapobiec „ryzykowi egzystencjalnemu”.

Sztuczna inteligencja nie może po prostu stać się niebezpieczna, mówi LeCun

Wielu ekspertów uważa, że ​​od urzeczywistnienia AGI dzielą dziesięciolecia, a nawet stulecia. Było to jednak powodem do niepokoju rządów, ponieważ eksperci ostrzegają, że takie modele mogą zagrozić istnieniu ludzkości. 

Przeczytaj także: Google, OpenAI i 13 innych firm zobowiązało się nie wdrażać ryzykownych modeli AI

LeCun uważa, że ​​systemy AI nie są „jakiś rodzaj naturalnego zjawiska, które po prostu się pojawi i stanie się niebezpieczne”. Powiedział, że ludzie mają moc, aby uczynić AI bezpieczną, ponieważ to my ją tworzymy.

Sztuczna inteligencja nie jest jakimś naturalnym zjawiskiem, które po prostu się pojawi i stanie się niebezpieczne. *MY* ją projektujemy i *MY* ją budujemy. Potrafię sobie wyobrazić tysiące scenariuszy, w których silnik turboodrzutowy ulegnie poważnej awarii. Mimo to udało nam się sprawić, że silniki turboodrzutowe były niesamowicie niezawodne, zanim wprowadzono je na szeroką skalę.

— Yann LeCun (@ylecun) 27 maja 2024 r

„Mogę sobie wyobrazić tysiące scenariuszy, w których turboodrzutowiec strasznie się zepsuje. A jednak udało nam się uczynić turboodrzutowce niesamowicie niezawodnymi, zanim wdrożyliśmy je na szeroką skalę” — dodał LeCun. „Podobne pytanie dotyczy AI”.

Szef ds. sztucznej inteligencji w Meta twierdzi, że LLM-y nie są w stanie osiągnąć ludzkiej inteligencji

W zeszłym tygodniu LeCun wyraził również opinię, że duże modele językowe, na których opierają się popularne chatboty oparte na sztucznej inteligencji, takie jak ChatGPT, Gemini itp., nie są w stanie dorównać ludzkiej inteligencji.

Przeczytaj także: ChatGPT-4o firmy OpenAI może pokazywać uczucia i emocje

W wywiadzie dla Forbesa LeCun powiedział, że LLM mają „ograniczone zrozumienie logiki”, biorąc pod uwagę, że muszą być przeszkoleni i mogą działać tylko tak dobrze, jak dane, którymi są zasilani. Zauważył również, że LLM są „z natury niebezpieczne” i że badacze, którzy chcą budować systemy AI na poziomie ludzkim, musieliby rozważyć inne typy modeli.

OpenAI, Meta potwierdza zainteresowanie tworzeniem AGI

Twórca ChatGPT, OpenAI, planuje stworzyć tak potężne modele. W maju współzałożyciel Sam Altman powiedział, że stworzą AGI bez względu na koszty.

„Czy spalamy 500 milionów dolarów rocznie, czy 5 miliardów dolarów — czy 50 miliardów dolarów rocznie — nie obchodzi mnie to, szczerze mówiąc. Dopóki znajdziemy sposób na płacenie rachunków, będziemy tworzyć AGI. To będzie drogie”.

Sama Altmana

Meta również zaczęła podejmować wysiłki w celu osiągnięcia inteligencji na poziomie ludzkim. W styczniu Mark Zuckerberg przyznał, że „długoterminową wizją Meta jest budowanie ogólnej inteligencji, odpowiedzialne udostępnianie jej kodu źródłowego i szerokie udostępnianie, aby każdy mógł z niej skorzystać”.

Sprawozdanie Cryptopolitan autorstwa Ibiam Wayas