Roman Yampolsky, ekspert ds. bezpieczeństwa sztucznej inteligencji, nie zgadza się z niedawną oceną Elona Muska, że ryzyko, że sztuczna inteligencja zabije ludzkość, wynosi tylko 10–20%.
Czy sztuczna inteligencja ostatecznie zniszczy ludzkość? W zależności od tego, z jakim ekspertem ds. cyberbezpieczeństwa porozmawiasz, szanse są bardzo zróżnicowane, ale jeden z ekspertów na pewno ma ponurą lub raczej apokaliptyczną opinię, której Elon Musk nie podziela.
Business Insider doniósł o doniesieniach z niedawnego szczytu Abundance Summit (w zeszłym miesiącu), podczas którego podczas „Wielkiej debaty na temat sztucznej inteligencji” Musk oszacował ryzyko zagłady ludzkości przez sztuczną inteligencję na około 10–20%. Oczywiście jest to domysł psychiczny, ale ogólna istota filozofii miliardera jest taka, że powinniśmy kontynuować rozwój z wykorzystaniem sztucznej inteligencji, ponieważ prawdopodobne pozytywne wyniki przeważają nad wszelkim negatywnym scenariuszem.
Elon Musk wierzy w świetlaną przyszłość ludzkości, gdzie sztuczna inteligencja pomaga ludziom, a nie próbuje nas zniszczyć.
W ocenie Muska nie wspomniano o tym, że negatywnym scenariuszem, jaki ryzykujemy, jest zagłada całej ludzkości. To prawdopodobnie mocno przechyla szalę przeciwko pozytywnemu wpływowi chatbotów. W każdym razie teorii prawdopodobieństwa Muska zdecydowanie nie podziela Roman Yampolsky, dyrektor Laboratorium Cyberbezpieczeństwa na Uniwersytecie w Louisville, ekspert ds. bezpieczeństwa AI i autor licznych książek na ten temat.
Yampolsky wyraził opinię, że Musk jest konserwatystą i prawdopodobieństwo fatalnego wyniku, w którym sztuczna inteligencja położy kres ludzkości, zniewoli nas lub inny podobny nie do pomyślenia scenariusz, jest znacznie wyższe niż 20%. Jakie jest więc prawdopodobieństwo śmierci według rosyjskiego naukowca-eksperta? Cóż, możesz nie chcieć wiedzieć, że Yampolsky szacuje to prawdopodobieństwo na 99,999999%. Co oczywiście oznacza niemal stuprocentową pewność.
Rosyjski ekspert ds. bezpieczeństwa stara się dotrzeć do nas wszystkich i zgłosić bardzo poważne obawy dotyczące rozwoju sztucznej inteligencji, zamiast po prostu przewidywać bliską zagładę ludzkości. Jednak te obawy muszą być dla niego niezwykle przekonujące, skoro dokonuje tak złowieszczej oceny. Filozofia Yampolsky'ego jest taka, że skoro wystarczająco zaawansowana sztuczna inteligencja będzie niemożliwa do kontrolowania po jej stworzeniu, najlepszą opcją jest podjęcie działań już teraz, aby zapobiec pojawieniu się takiej sztucznej inteligencji. Każdy oczywiście rozumie, skąd bierze się ten punkt widzenia.
Bardziej optymistyczny raport stwierdza, że prawdopodobieństwo naszej śmierci przez sztuczną inteligencję waha się od 5% do 50%, według czołowych technologów z Doliny Krzemowej. Bądźmy szczerzy, nawet 50-procentowe prawdopodobieństwo apokalipsy budzi obawy. Gdyby zaproponowano ci pigułkę i powiedziano ci, że masz 50% szans na uzyskanie nadludzkich zdolności lub 50% szans na natychmiastową śmierć, czy wziąłbyś ją? Sądzimy, że odmówilibyśmy, ale są tacy, którzy mogliby chcieć podjąć takie ryzyko.
#BullorBear #BinanceLaunchpool #TwitterCryptoRevolution #ElonMuskTalks #GPT-4