Sztuczna inteligencja (AI) przejęła współczesne życie, szczególnie w zakresie generowania treści pisanych. Chociaż to wszystko jest zabawą i grami, niedokładność w wykrywaniu treści AI jest niepokojąca. Co gorsza, detektory AI oznaczają treści pisane przez człowieka jako wygenerowane w formacie GPT; Studium przypadku Konstytucja Stanów Zjednoczonych.

Przeczytaj także: Paul Graham z Y Combinator ostro skrytykowany za twierdzenie, że teksty z „Delve” są napisane przez sztuczną inteligencję

Konstytucja Stanów Zjednoczonych została napisana w 1787 r., ratyfikowana w 1788 r. i obowiązuje od 1789 r. Jest to najdłużej zachowana na świecie pisemna karta rządu. Konstytucja powstała około sto lat przed wynalezieniem pierwszego samochodu. Jednak detektor sztucznej inteligencji stwierdził, że w 97,97% wygenerowano ją przez sztuczną inteligencję.

Detektory AI uznają konstytucję USA za nieludzką

W 2023 r. wzrosła liczba treści pisanych opartych na sztucznej inteligencji. Wkrótce potem twórcy rynku skorzystali z okazji, aby stworzyć detektory informujące o zawartości procentowej sztucznej inteligencji. To powinien być dobry postęp, ale tak nie jest.

Detektor sztucznej inteligencji oznaczył Konstytucję Stanów Zjednoczonych jako treść AI. Procent? Zamknięcie 97,97%. Termin „sztuczna inteligencja” powstał i stał się popularny podczas narodzin sztucznej inteligencji w latach 1950–1956. Jak więc sztuczna inteligencja mogła napisać dokument starszy o 163 lata od swojego wynalazku?

Źródło: Zerogpt.com

W 1950 roku Alan Turing opublikował w czasopiśmie artykuł zatytułowany „Computer Machinery and Intelligence” (Maszyny komputerowe i inteligencja), w którym zaproponował test na inteligencję maszyn o nazwie Gra w sztuczki. Artykuł ten zapoczątkował świat, w którym dzisiaj żyjemy.

W 1952 roku informatyk Arthur Samuel opracował program do gry w warcaby i jako pierwszy nauczył się tej gry samodzielnie. Wkrótce potem, w 1955 roku, John McCarthy zorganizował w Dartmouth warsztaty na temat „sztucznej inteligencji”, co było pierwszym użyciem tego słowa.

Detektory AI mają ograniczenia

Detektory AI mają ograniczenia, ponieważ tekst wygenerowany przez sztuczną inteligencję naśladuje ludzkie pismo. Detektory te zostały przeszkolone przez tych samych ludzi, którzy uczyli maszyny pisać. Jak więc działająby ich detektory AI i jak dokładne są? Inny detektor AI uzyskał 1% zawartości AI w Konstytucji Stanów Zjednoczonych. Skąd wziął się ten 1%?

Źródło: gptzero.me

Cóż, tutaj jest rozbieżność: niektóre detektory AI wyszukują pewne słowa, takie jak „głębiać, gobelin, wykorzystywać, liczne itp.” które są zwykle używane przez sztuczną inteligencję, ale są rzadkością wśród Amerykanów. 

Jednak w przypadku niektórych osób z krajów o brytyjskiej historii kolonialnej słowa te są powszechnie używane zarówno w języku mówionym, jak i pisanym.

W zeszłym miesiącu współzałożyciel Y Combinator, Paul Graham, znalazł się pod ostrzałem po teorii atrybucji tekstu ChatGPT, którą przedstawił na X (dawniej Twitter). Graham zamieścił otrzymaną od kogoś zimną wiadomość e-mail z propozycją dotyczącą projektu, który według niego był dziełem AI, ponieważ zawierał słowo „zagłęb się”.

Jeden z użytkowników X powiedział: „Ludzie, którzy nauczyli się angielskiego w krajach, które mają brytyjską przeszłość kolonialną – dokładnie w ten sposób nauczyliśmy się angielskiego […] „Delve” to normalne słowo, którym się posługujemy”. Inny powiedział, że to problem amerykański.

Niektóre kraje i ludzie nadal używają tego, co określiłbym jako „literaturę angielską”. Niefortunne jest to, że amerykańskie słownictwo opiera się głównie na potocznych (to, co nazywacie slangiem) i współczesnych amerykańskich idiomach, do tego stopnia, że ​​wyrafinowane użycie…

— Biuro badawcze Afryki (@MightiJamie) 10 kwietnia 2024 r

Nasuwa się pytanie, czy detektory AI i generatory treści powinny być specyficzne dla regionu i języka angielskiego? A może należy już skończyć z tymi wszystkimi narzędziami do pisania i wykrywaczami?

Detektory AI są niedokładne

Detektory AI opierają się na niespójnych cechach językowych. Język ludzki jest z natury zmienny i obejmuje szeroką gamę stylów, dialektów i idiomów. Tekst wygenerowany przez sztuczną inteligencję może mieścić się w tych granicach, co utrudnia wykrywaczom dokładność.

Około 20% tekstów generowanych przez sztuczną inteligencję przechodzi przez te systemy wykrywania niewykryte, co podważa niezawodność detektorów AI. Podobnie około 25% tekstu pisanego przez człowieka jest fałszywie oznaczanych jako sztuczna inteligencja.

Jeden z użytkowników Quora napisał: „Wykrywacz AI wykrywa moją pracę jako wygenerowaną w 100% przez sztuczną inteligencję. Ponieważ nieświadomie użyłem go jako narzędzia redakcyjnego i gramatycznego na prośbę doradcy akademickiego. Słowa, koncepcja i doświadczenie życiowe zawarte w już opublikowanym artykule są moje własne. Co ja robię?"

Wiele osób wyraziło swoją frustrację związaną z tym problemem. Niedawno w wiadomości opublikowanej przez Cryptopolitan generator AI oznaczył słowa wypowiedziane przez Donalda Trumpa. Powiedział: „Jestem bardzo pozytywny i otwarty na firmy kryptowalutowe i wszystkie rzeczy związane z tą nową i rozwijającą się branżą”. ⁤W jaki sposób sztuczna inteligencja jest dodawana do wypowiadanych słów? Czy to jest w umyśle człowieka? W wyrażonych myślach?

Inna treść pochodziła od Davida Baileya: „⁤Zmobilizujemy się, by się bronić. ⁤⁤Nie głosujemy na Trumpa jako takiego, głosujemy przeciwko Bidenowi. ⁤⁤Jedyną osobą, którą można za to winić, jest Biden. „

Przeczytaj także: Kampania Trump Crypto – wszystko, co musisz wiedzieć

W 2023 roku OpenAI opublikowało wskazówki dla nauczycieli w promocyjnym poście na blogu pokazującym, jak niektórzy nauczyciele wykorzystują ChatGPT jako pomoc edukacyjną.  

W części często zadawanych pytań zatytułowanej „Czy detektory AI działają?” OpenAI napisało: „Krótko mówiąc, nie. Chociaż niektóre (w tym OpenAI) udostępniły narzędzia, które mają wykrywać treści generowane przez sztuczną inteligencję, żadne z nich nie pozwala na niezawodne rozróżnianie treści generowanych przez sztuczną inteligencję od treści generowanych przez człowieka. Pozostaje problem odróżnienia treści ludzkich od treści AI. Pytanie brzmi: co należy zrobić w przyszłości?

Kryptopolityczne raporty Florence Muchai