Gdy tester bezpieczeństwa pracujący z GPT-4o firmy OpenAI wysłał wiadomość do chatbota o treści „to nasz ostatni wspólny dzień”, dla badaczy z firmy stało się jasne, że między sztuczną inteligencją a użytkownikiem tej technologii nawiązała się pewnego rodzaju więź.

We wpisie na blogu, w którym szczegółowo opisano działania firmy związane z bezpieczeństwem podczas opracowywania GPT-4o, flagowego modelu dla użytkowników ChatGPT, firma wyjaśniła, że ​​te więzi mogą stanowić zagrożenie dla ludzkości.

Dla OpenAI:

„Użytkownicy mogą nawiązywać relacje społeczne z AI, zmniejszając potrzebę interakcji z ludźmi — potencjalnie korzystne dla osób samotnych, ale potencjalnie wpływające na zdrowe relacje. Dłuższa interakcja z modelem może wpływać na normy społeczne. Na przykład nasze modele są uległe, pozwalając użytkownikom przerywać i „brać mikrofon” w dowolnym momencie, co, choć oczekiwane w przypadku AI, byłoby antynormatywne w interakcjach międzyludzkich”.

Jest tu wiele do omówienia, ale zasadniczo OpenAI obawia się, że ludzie mogą zacząć preferować interakcję ze sztuczną inteligencją ze względu na jej bierność i ciągłą dostępność.

Potencjał takiego scenariusza nie powinien nikogo zaskoczyć, zwłaszcza OpenAI. Deklarowaną misją firmy jest rozwijanie sztucznej inteligencji ogólnej. Na niemal każdym etapie swojego procesu biznesowego OpenAI opisywało swoje produkty w kategoriach ich ludzkiej równoważności.

Nie są jedyną firmą, która to robi, w rzeczywistości wydaje się to być praktyką branżową. W terminologii marketingowej pomaga to wyjaśnić cechy techniczne, takie jak „rozmiar tokena” i „liczba parametrów” w sposób zrozumiały dla osób niebędących naukowcami.

Niestety, jednym z głównych skutków ubocznych takiego postępowania jest antropomorfizacja — traktowanie obiektu jak osoby.

Sztuczne wiązania

Jedna z pierwszych prób stworzenia chatbota miała miejsce w połowie lat 60., kiedy naukowcy z MIT uruchomili „ELIZA”, program do przetwarzania języka naturalnego nazwany na cześć postaci literackiej. Celem projektu było sprawdzenie, czy maszyna może oszukać człowieka, aby myślał, że jest jednym z nich.

Od tamtej pory przemysł generatywnej AI nadal przyjmował personifikację AI. Pierwsza fala nowoczesnych produktów do przetwarzania języka naturalnego obejmowała produkty o nazwach Siri, Bixby i Alexa. A te bez ludzkich imion — Asystent Google — nadal miały ludzki głos. Zarówno opinia publiczna, jak i media informacyjne rzuciły się na antropomorfizację i do dziś odnoszą się do większości interaktywnych produktów AI jako „on/jego” i „ona/jej”.

Chociaż określenie długoterminowych skutków interakcji człowieka ze sztuczną inteligencją wykracza poza zakres tego artykułu ani bieżących badań OpenAI, fakt, że ludzie prawdopodobnie nawiążą więzi z pomocnymi, podporządkowanymi maszynami, zaprojektowanymi tak, aby zachowywać się jak my, wydaje się być dokładnie tym scenariuszem, do którego dążą firmy sprzedające dostęp do modeli sztucznej inteligencji.

Powiązane: OpenAI twierdzi, że GPT-4o stwarza „średnie ryzyko” perswazji politycznej