Według współzałożyciela Ethereum, Vitalika Buterina, GPT-4 OpenAI, model generatywnej sztucznej inteligencji (AI), przeszedł test Turinga.

Test Turinga jest mglistym punktem odniesienia dla systemów sztucznej inteligencji, mającym na celu określenie, na ile ludzki jest model konwersacji. Termin powstał na cześć słynnego matematyka Alana Turinga, który zaproponował ten test w 1950 roku.

Według Turinga system sztucznej inteligencji zdolny do generowania tekstu, który oszukuje ludzi, myśląc, że rozmawiają z innym człowiekiem, wykazałby zdolność „myślenia”.

Prawie 75 lat później osoba, której w dużej mierze przypisywano pomysłodawstwo drugiej najpopularniejszej kryptowaluty na świecie, zinterpretowała ostatnie badania przed drukiem przeprowadzone na Uniwersytecie Kalifornijskim w San Diego jako wskazujące, że test Turinga w końcu „przeszedł” przez model produkcyjny.

Źródło: @Vitalik.eth w Farcaster.

Naukowcy z Uniwersytetu Kalifornijskiego w San Diego opublikowali niedawno artykuł przed drukiem zatytułowany „Ludzie nie potrafią odróżnić GPT-4 od człowieka w teście Turinga”, w którym około 500 ludzi wchodzi w interakcję z ludźmi i modelami sztucznej inteligencji w ślepym teście, aby określić czy badani potrafili określić, który jest który.

Według badań ludzie błędnie ustalili, że GPT-4 to „człowiek” w 56% przypadków. Oznacza to, że maszyna najczęściej oszukiwała ludzi, myśląc, że to jeden z nich.

Ujęcie Vitalika Buterina

Według Buterina system sztucznej inteligencji, który jest w stanie oszukać ponad połowę ludzi, z którymi wchodzi w interakcję, spełnia test Turinga.

Według obsady Farcaster, omawiając najnowsze badania dotyczące przeddruku:

„Oznacza to, że zdolność ludzi do rozpoznania, czy to człowiek, czy bot, to w zasadzie rzut monetą!”

Buterin uszczegółowił swoje stwierdzenie w kolejnym nawiasie: „OK, nie do końca, ponieważ ludzi można odgadnąć jako ludzi w 66% przypadków w porównaniu do 54% w przypadku botów, ale różnica 12% jest niewielka; w dowolnym realnym świecie, który w zasadzie liczy się jako przejście.”

Później dodał także, w odpowiedzi na komentarz na temat swojej oryginalnej obsady, że Test Turinga jest „zdecydowanie najsłynniejszym, społecznie akceptowanym kamieniem milowym w stwierdzeniu, że„ sztuczna inteligencja to teraz poważne gówno ”. Warto więc sobie przypomnieć, że kamień milowy został już przekroczony.”

Próba Turinga

Sztuczna inteligencja ogólna (AGI) i test Turinga niekoniecznie są ze sobą powiązane, mimo że te dwie terminologie są często mylone. Turing sformułował swój test w oparciu o swoją przenikliwość matematyczną i przewidział scenariusz, w którym sztuczna inteligencja może oszukać ludzi poprzez rozmowę, aby myśleli, że to jeden z nich.

Należy wspomnieć, że test Turinga jest efemeryczną konstrukcją bez prawdziwego punktu odniesienia ani podstawy technicznej. Nie ma naukowego konsensusu co do tego, czy maszyny są w stanie „myśleć” tak jak żywe organizmy, ani co do tego, jak można by zmierzyć taki wyczyn. Mówiąc najprościej, sztuczna inteligencja ogólna lub zdolność sztucznej inteligencji do „myślenia” nie są obecnie mierzalne ani definiowane przez społeczności naukowe lub inżynieryjne.

Turing sformułował swoje koncepcyjne przewidywania na długo przed pojawieniem się systemów sztucznej inteligencji opartych na tokenach i pojawieniem się generatywnych sieci kontradyktoryjnych (GAN), prekursora dzisiejszych generatywnych systemów sztucznej inteligencji.

Sztuczna inteligencja ogólna

Sprawę dodatkowo komplikuje koncepcja sztucznej inteligencji ogólnej (AGI), która często jest kojarzona z testem Turinga. W żargonie naukowym „inteligencja ogólna” to taka, która powinna być zdolna do wszelkich wyczynów opartych na inteligencji. Wyklucza to ludzi, ponieważ żadna osoba nie wykazała „ogólnych” zdolności w całym spektrum ludzkich wysiłków intelektualnych. Wynika z tego, że „ogólna sztuczna inteligencja” charakteryzowałaby się zdolnościami myślowymi znacznie przekraczającymi możliwości jakiegokolwiek znanego człowieka.

Biorąc to pod uwagę, jasne jest, że GPT-4 nie pasuje do definicji prawdziwej „inteligencji ogólnej” w ściśle naukowym sensie. Nie powstrzymuje to jednak mieszkańców społeczności AI od poruszania się po bramkach i używania terminu „AGI” do określenia dowolnego systemu sztucznej inteligencji zdolnego oszukać znaczną liczbę ludzi.

W obecnej kulturze typowe jest postrzeganie terminów i wyrażeń, takich jak „AGI”, „podobny do człowieka” i „przechodzi test Turinga”, jako odnoszących się do dowolnego systemu sztucznej inteligencji, który generuje treści porównywalne z treściami wytwarzanymi przez ludzi.

Powiązane: „Dopiero drapiemy powierzchnię” kryptowalut i sztucznej inteligencji — Microsoft exec