Analytik společnosti Google Gary Illyes varoval, že velké jazykové modely – technologie stojící za generativními chatboty s umělou inteligencí, jako je ChatGPT – stále mají mezery v přesnosti a potřebují lidské oko k ověření obsahu, který produkují. Komentáře přicházejí jen několik dní poté, co OpenAI spustila SearchGPT, nový vyhledávač založený na umělé inteligenci, který bude přímo konkurovat Googlu. 

Illyes sdílel komentáře na LinkedIn v reakci na otázku, kterou dostal ve své e-mailové schránce, ale neuvedl, jaká otázka byla. Řekl, že lidé by neměli důvěřovat odpovědím AI, aniž by si ověřili další autoritativní zdroje. OpenAI si klade za cíl, aby jeho vyhledávací nástroj vylepšil dominanci Googlu na trhu vyhledávačů.

Odpovědi AI nejsou „nezbytně věcně správné“

Illyes, který je ve společnosti Google více než deset let, uvedl, že ačkoli odpovědi AI mohou být blízké skutečnosti, nejsou „nezbytně věcně správné“. Je to proto, že velké jazykové modely (LLM) nejsou imunní vůči podávání nesprávných informací plovoucích na internetu, vysvětlil.

„Na základě svých tréninkových dat LLM najdou nejvhodnější slova, fráze a věty, které odpovídají kontextu a významu výzvy,“ napsal Illyes. „To jim umožňuje generovat relevantní a koherentní odpovědi. Ale ne nutně fakticky správné."

Analytik Google uvedl, že uživatelé budou stále muset ověřovat odpovědi AI na základě toho, co „víte o tématu, na které jste se zeptali LLM, nebo na základě dalšího čtení o zdrojích, které jsou směrodatné pro váš dotaz“.

Jedním ze způsobů, jak se vývojáři pokusili zajistit spolehlivost obsahu generovaného umělou inteligencí, je praktika zvaná „uzemnění“. Proces zahrnuje infuzi strojově vytvořených informací s lidskými prvky, aby se zabránilo chybám. Podle Illyese nemusí uzemnění stále stačit.

„Uzemnění může pomoci vytvořit fakticky správnější odpovědi, ale není dokonalé; nenahradí váš mozek,“ řekl. "Internet je plný zamýšlených i nezamýšlených dezinformací a vy byste nevěřili všemu, co čtete online, tak proč byste odpovídali LLM?"

Elon Musk obviňuje Google z uchovávání veřejných informací

Tradičně byla důvěra vždy problémem vyhledávačů, jako je Google a dalších platforem umělé inteligence, a toho, jak vykonávají určitou kontrolu nad informacemi, které předávají uživatelům.

Jedním z takových incidentů je nedávný pokus o atentát na bývalého amerického prezidenta Donalda Trumpa. Elon Musk navrhl, aby Google zakázal, aby se incident se střelbou objevoval ve výsledcích vyhledávání, což vyvolalo na sociálních sítích velkou debatu o dosahu Big Tech.

Páni, Google má zákaz vyhledávání na prezidenta Donalda Trumpa!

Vměšování do voleb? pic.twitter.com/dJzgVAAFZA

— Elon Musk (@elonmusk) 29. července 2024

V záplavě odpovědí se do debaty přidal podvodný účet, který údajně patřil viceprezidentce Google Aně Mostarac, a sdílel falešnou omluvu od společnosti za údajné blokování obsahu na Trumpovi.

„...Potřeby lidí po informacích neustále rostou, takže se budeme neustále vyvíjet a zlepšovat Vyhledávání. Zdá se však, že musíme překalibrovat, co rozumíme pod pojmem přesné. Co je přesné, je subjektivní a snaha o přesnost může překážet při provádění věcí,“ zveřejnil falešný účet na X.

„Můžete si být jisti, že náš tým tvrdě pracuje, aby zajistil, že naše úcta k přesnosti nebude rozptylovat pozornost, která stojí v cestě naší vizi budoucnosti,“ dodal.

Poznámky komunity na X okamžitě označily tweet s tím, že dotyčná osoba se vydává za viceprezidenta Google.  Toto je příklad toho, jak mohou být informace snadno zkresleny a modely umělé inteligence nemusí být schopny rozeznat, co je přesné a co ne, bez lidské kontroly.