Eric Horvitz, dyrektor naukowy Microsoftu, wierzy, że sztuczna inteligencja umożliwi rozkwit ludzkości w przyszłości, ale najwyraźniej zabezpiecza się.

Horvitz opublikował post zatytułowany „Reflections on AI and the future of human flourishing” na oficjalnym blogu Microsoftu 30 maja. Artykuł omawia przyszłość sztucznej inteligencji i zapowiada serię esejów napisanych przez ekspertów AI, którzy otrzymali wczesny dostęp do GPT-4 OpenAI przed jego publicznym uruchomieniem.

Jak wynika z wpisu na blogu, Horvitz był zaskoczony możliwościami GPT-4 firmy OpenAI, gdy w 2022 r. udzielono mu takiego dostępu:

„Zaobserwowałem nieoczekiwane przebłyski inteligencji wykraczające poza te widoczne w poprzednich systemach AI. W porównaniu do jego poprzednika, GPT-3.5 — modelu wykorzystywanego przez dziesiątki milionów jako ChatGPT — zauważyłem znaczący skok w możliwościach.

Horvitz w szczególności zachwalał „zdolność GPT-4 do interpretowania moich intencji i udzielania wyrafinowanych odpowiedzi na liczne pytania”, co, jak powiedział, „odczuwałem jak «przejście fazowe», przywołujące obrazy pojawiających się zjawisk, z którymi zetknąłem się w fizyce”.

Horvitz pisze, że podczas testowania GPT-4 „stało się coraz bardziej oczywiste, że model ten i jego następcy […] mają ogromny potencjał transformacyjny”.

Firmy Microsoft i OpenAI udostępniły grupie ekspertów wczesny dostęp do GPT-4 i zwróciły się do nich z prośbą o napisanie esejów, mając nadzieję na zidentyfikowanie szans i wyzwań, jakie technologia ta stwarza w wielu branżach.

Jednak tego samego dnia, w którym Horvitz opublikował post z ogłoszeniem, jego nazwisko pojawiło się także jako podpisu pod dokumentem opublikowanym przez Centrum Bezpieczeństwa Sztucznej Inteligencji.

Dokument, który zawierał tylko wstęp i oświadczenie złożone z jednego zdania, został podpisany przez listę sygnatariuszy reprezentujących prawdziwe „kto jest kim” wśród ekspertów w dziedzinie sztucznej inteligencji (wśród nich znalazła się garstka znanych osób, w tym Yann LeCun z Meta i Andrew Ng, współzałożyciel Google Brain).

W oświadczeniu czytamy: „Zmniejszenie ryzyka wyginięcia spowodowanego przez sztuczną inteligencję powinno być globalnym priorytetem, obok innych zagrożeń o zasięgu społecznym, takich jak pandemie i wojna nuklearna”.

Odbiór dokumentu w mediach społecznościowych był nieco podzielony. Wielu ekspertów rozwodziło się nad powodami podpisania dokumentu, a inni obawiali się, że martwienie się o nieokreślone ryzyka — takie jak przyszłe systemy sztucznej inteligencji o możliwościach, które obecnie nie są możliwe — odwraca uwagę od ważniejszych kwestii.

Niesamowite jest to, że intelektualiści i naukowcy podejmują się realizacji tych „scenariuszy końca świata w kontekście sztucznej inteligencji”, ignorując jednocześnie prawdziwe spustoszenie spowodowane zmianami klimatu, wzrostem sił antydemokratycznych i rosnącymi nierównościami ekonomicznymi, które dzieją się w czasie rzeczywistym.

– Ahmed El Hady (@zamakany) 31 maja 2023 r

Horvitz w swoim ostatnim wpisie na blogu porusza kwestie „wyzwań” związanych z rozwojem bezpiecznej sztucznej inteligencji, a także przyznaje się do „lęku” o transformacyjny charakter tej technologii. Nie ma jednak wzmianki o potencjalnym wyginięciu.

Poza sztuczną inteligencją Microsoft bada inne rodzące się technologie. Firma niedawno otrzymała zgodę na udział w pilotażowym projekcie cyfrowej waluty banku centralnego Brazylii, obok Santander, Visa i kilku innych wnioskodawców.