AI chatboti se postupem času zhoršují — akademický dokument #BTCUptober
Klesající zájem spotřebitelů o chatboty způsobil pokles příjmů v sektoru AI během druhého obchodního čtvrtletí roku 2024.
Nedávná výzkumná studie s názvem „Větší a instruktivnější jazykové modely se stávají méně spolehlivými“ v Nature Scientific Journal odhalila, že uměle inteligentní chatboti dělají v průběhu času více chyb, jak jsou vydávány novější modely.
Lexin Zhou, jeden z autorů studie, se domníval, že vzhledem k tomu, že modely umělé inteligence jsou optimalizovány tak, aby vždy poskytovaly věrohodné odpovědi, jsou zdánlivě správné odpovědi upřednostňovány a předávány koncovému uživateli bez ohledu na přesnost.
Tyto halucinace umělé inteligence se samy posilují a mají tendenci se časem sdružovat – tento jev se zhoršuje používáním starších velkých jazykových modelů k trénování novějších velkých jazykových modelů, což vede ke „kolapsu modelu“.
Editor a spisovatel Mathieu Roy varoval uživatele, aby se na tyto nástroje příliš nespoléhali a aby vždy kontrolovali nesrovnalosti ve výsledcích vyhledávání generovaných umělou inteligencí:
I když umělá inteligence může být užitečná pro řadu úkolů, je důležité, aby si uživatelé ověřili informace, které získají z modelů umělé inteligence. Ověřování faktů by mělo být krokem v procesu každého při používání nástrojů AI. To se komplikuje, když jsou zapojeni chatboti zákaznických služeb."
Aby toho nebylo málo, „často neexistuje žádný způsob, jak zkontrolovat informace, než se zeptat samotného chatbota,“ tvrdil Roy.
Tvrdohlavý problém halucinací AI#BTCUptober
Platforma společnosti Google pro umělou inteligenci vyvolala v únoru 2024 posměch poté, co umělá inteligence začala produkovat historicky nepřesné obrázky. Mezi příklady patřilo zobrazování barevných lidí jako nacistických důstojníků a vytváření nepřesných obrazů známých historických osobností.
Bohužel, incidenty, jako je tento, jsou při současné iteraci umělé inteligence a velkých jazykových modelů až příliš časté. Vedoucí pracovníci v oboru, včetně generálního ředitele Nvidie Jensena Huanga, navrhli zmírnit halucinace umělé inteligence tím, že přinutí modely umělé inteligence, aby prováděly výzkum a poskytovaly zdroje pro každou jednotlivou odpověď.#BTCUptober