Wydaje się, że OpenAI wstrzymuje nowe „wysoce dokładne” narzędzie zdolne do wykrywania treści generowanych przez ChatGPT w związku z obawami, że można je zmanipulować lub spowodować, że użytkownicy nieanglojęzyczni będą unikać generowania tekstu za pomocą modeli sztucznej inteligencji. 

W majowym poście na blogu firma wspomniała, że ​​pracuje nad różnymi metodami wykrywania treści generowanych specjalnie przez jej produkty. 4 sierpnia dziennik „Wall Street Journal” opublikował ekskluzywny raport wskazujący, że plany udostępnienia narzędzi utknęły w martwym punkcie ze względu na wewnętrzne debaty na temat konsekwencji ich udostępnienia.

W następstwie raportu WSJ OpenAI zaktualizowało swój majowy wpis na blogu o nowe informacje dotyczące narzędzi do wykrywania. Krótko mówiąc, nadal nie ma harmonogramu publikacji, pomimo ostrzeżenia firmy, że co najmniej jedno narzędzie do określania pochodzenia tekstu jest „wysoce dokładne, a nawet skuteczne w przypadku zlokalizowanej manipulacji”.

Niestety firma twierdzi, że nadal istnieją metody umożliwiające ominięcie wykrywania i dlatego nie chce udostępniać informacji publicznie.

W innym fragmencie firma zdaje się sugerować, że osoby nieanglojęzyczne mogą zostać „napiętnowane” przed używaniem produktów AI do pisania z powodu exploita związanego z tłumaczeniem tekstu angielskiego na inny język w celu ominięcia wykrycia.

„Innym ważnym ryzykiem, które rozważamy, jest to, że z naszych badań wynika, że ​​metoda znakowania tekstowego może potencjalnie nieproporcjonalnie wpłynąć na niektóre grupy. Może na przykład napiętnować wykorzystanie sztucznej inteligencji jako przydatnego narzędzia do pisania dla osób, dla których angielski nie jest rodzimym językiem”.

Chociaż obecnie dostępnych jest wiele produktów i usług, które mają wykrywać treści generowane przez sztuczną inteligencję, zgodnie z naszą najlepszą wiedzą żaden z nich nie wykazał wysokiego stopnia dokładności w przypadku ogólnych zadań w recenzowanych badaniach.

OpenAI byłby pierwszym systemem opracowanym wewnętrznie, który opierałby się na niewidocznym znaku wodnym i zastrzeżonych metodach wykrywania treści generowanych specjalnie przez modele firmy.

Powiązane: Obecny model biznesowy OpenAI jest „nie do utrzymania” – raport