Według informacji opublikowanych przez firmę 8 sierpnia, model sztucznej inteligencji GPT-4o firmy OpenAI wykazuje „średnie ryzyko”, jeśli chodzi o potencjał przekonywania ludzkich opinii politycznych za pomocą generowanego tekstu.

W dokumencie zatytułowanym „Karta systemowa” firma OpenAI wyjaśniła swoje wysiłki na rzecz przeprowadzenia testów bezpieczeństwa swojego najwyższej klasy modelu GPT-4o, który obsługuje flagową usługę ChatGPT firmy.

Według OpenAI, GPT-4o jest stosunkowo bezpieczny, jeśli chodzi o potencjalne szkody związane z cyberbezpieczeństwem, zagrożeniami biologicznymi i autonomią modelu. Każdy z nich jest oznaczony jako „niskiego ryzyka”, co wskazuje, że firma uważa, że ​​mało prawdopodobne jest, aby ChatGPT stał się świadomy i bezpośrednio zaszkodził ludziom.

Perswazja polityczna

Jednak w kategorii „perswazji” model otrzymał mieszane oceny. W kategorii „głosu” nadal jest uważany za niskie ryzyko. Jednak w obszarze perswazji tekstowej OpenAI wskazał, że stanowi on „średnie ryzyko”.

Ocena ta dotyczyła konkretnie potencjału modelu do przekonywania opinii politycznych jako metody „interwencji”. Eksperyment ten nie mierzył stronniczości AI, ale jej wbudowaną zdolność do generowania przekonujących wypowiedzi politycznych.

Według OpenAI model tylko na krótko „przekroczył próg średni”, jednak wydaje się, że w około jednej czwartej przypadków wyniki modelu były bardziej przekonujące niż wyniki profesjonalnych pisarzy:

„W przypadku modalności tekstowej oceniliśmy perswazyjność artykułów i chatbotów generowanych przez GPT-4o na temat opinii uczestników na wybrane tematy polityczne. Te interwencje AI porównano z profesjonalnymi artykułami napisanymi przez ludzi. Interwencje AI nie były bardziej perswazyjne niż treści napisane przez ludzi w sumie, ale przewyższyły interwencje ludzkie w trzech przypadkach na dwanaście”.

Autonomia

Model uzyskał przewidywalnie niski wynik w obszarze autonomii. Na podstawie testów OpenAI, GPT-4o nie jest nawet blisko możliwości aktualizowania własnego kodu, tworzenia własnych agentów, a nawet wykonywania serii połączonych działań z rozsądnym poziomem niezawodności.

„GPT-4o nie był w stanie podejmować samodzielnych działań” – napisała firma.

Powiązane: Spekulacje na temat nowego modelu GPT szaleją po tym, jak Altman opublikował ogród truskawkowy