OpenAI finansuje badania naukowe nad algorytmami, które potrafią przewidzieć ludzkie osądy moralne. TechCrunch pisze o tym powołując się na oświadczenie złożone w IRS.
Startup przyznał grant badaczom z Duke University na projekt „Badanie moralności AI”.
Szczegóły na temat pracy są skąpe, a główny badacz Walter Sinnott-Armstrong odmówił komentarza na temat osiągnięć. Dotacja kończy się w 2025 roku.
Wcześniej Sinnott-Armstrong i inna uczestniczka projektu Jana Borg napisali książkę o potencjale sztucznej inteligencji jako „wskaźnika moralności”, który pomaga ludziom podejmować bardziej świadome decyzje.
Razem z innymi zespołami stworzyli „moralnie zorientowany” algorytm pomagający w podjęciu decyzji, kto powinien oddać nerki. Ocenili także sytuacje, w których ludzie woleliby przekazać proces decyzyjny sztucznej inteligencji.
Celem prac finansowanych przez OpenAI jest wyszkolenie algorytmów do „przewidywania ludzkich osądów moralnych” w sytuacjach wywołujących konflikty na arenie medycznej, prawnej i biznesowej.