OpenAI finansuje badania naukowe nad algorytmami, które potrafią przewidzieć ludzkie osądy moralne. TechCrunch pisze o tym powołując się na oświadczenie złożone w IRS.

Startup przyznał grant badaczom z Duke University na projekt „Badanie moralności AI”.

Szczegóły na temat pracy są skąpe, a główny badacz Walter Sinnott-Armstrong odmówił komentarza na temat osiągnięć. Dotacja kończy się w 2025 roku.

Wcześniej Sinnott-Armstrong i inna uczestniczka projektu Jana Borg napisali książkę o potencjale sztucznej inteligencji jako „wskaźnika moralności”, który pomaga ludziom podejmować bardziej świadome decyzje.

$BCH $NEAR $LTC

Razem z innymi zespołami stworzyli „moralnie zorientowany” algorytm pomagający w podjęciu decyzji, kto powinien oddać nerki. Ocenili także sytuacje, w których ludzie woleliby przekazać proces decyzyjny sztucznej inteligencji.

Celem prac finansowanych przez OpenAI jest wyszkolenie algorytmów do „przewidywania ludzkich osądów moralnych” w sytuacjach wywołujących konflikty na arenie medycznej, prawnej i biznesowej.