Divulgazione: i punti di vista e le opinioni qui espressi appartengono esclusivamente all'autore e non rappresentano i punti di vista e le opinioni dell'editoriale di crypto.news.
Il dizionario online leader a livello mondiale, Dictionary.com, ha recentemente avuto una scelta interessante come parola dell’anno per il 2023: allucinazioni. Ciò non è dovuto al panico attorno a un nuovo tipo di allucinogeno o a un nuovo movimento di isteria di massa, ma a causa di un nome molto particolare per un fenomeno molto particolare derivante dall'industria emergente dell'intelligenza artificiale, o più precisamente, intelligenza artificiale generale ( AGI), che è decollato nell'opinione pubblica dal lancio del chatbot di intelligenza artificiale generativa ChatGPT da parte di OpenAI nel novembre 2022.
Potrebbe interessarti anche: Intenti e risolutori: la prossima frontiera dell'intelligenza artificiale nel trading di def e nella gestione del portafoglio | Opinione
Naturalmente, solo gli organismi viventi dotati di sensi reali possono “allucinare”, ma questo è il termine generico che è stato usato per descrivere quando un’intelligenza artificiale fornisce informazioni false o genera un linguaggio casuale che non risponde alla particolare domanda che le è stata posta. .
In un caso, l’intelligenza artificiale del motore di ricerca Bing di Microsoft ha iniziato a ignorare le domande di un giornalista del New York Times mentre tentava di convincerlo a lasciare la moglie. Al di fuori di questa divertente curiosità (forse non tanto per il giornalista), le prime allucinazioni di AGI hanno creato problemi reali quando gli utenti di motori di query come ChatGPT accettano senza fare domande le sue risposte. In un caso, gli avvocati sono stati multati (e derisi fuori dall'aula) per aver utilizzato ChatGPT per costruire una memoria legale piena di diverse citazioni di casi falsi.
Quegli avvocati hanno creato difficoltà finanziarie a breve termine e senza dubbio qualche imbarazzo personale e professionale a lungo termine, ma cosa succede quando sono in gioco milioni e forse anche miliardi?
IA e settore finanziario
Dobbiamo stare attenti al richiamo dell’intelligenza artificiale, soprattutto in un settore finanziario che ha prosperato grazie all’automazione, ma che ha anche già subito perdite significative a causa di essa. Se intendiamo rendere questo nuovo strumento di analisi dei dati parte integrante della nostra infrastruttura informatica per il futuro, e in particolare per la nostra infrastruttura informatica finanziaria, dobbiamo prestare attenzione al modo in cui queste tecnologie vengono implementate e autoregolamentate all’interno del settore.
Non molte persone possono dimenticare i primi – e talvolta pericolosi – giorni del trading automatizzato ad alta frequenza, come quando un algoritmo spazzò via quasi mezzo miliardo di dollari di valore dalla Borsa di New York nel 2012. I falsi dati presentati da potenziali Le allucinazioni AGI, avvolte in un linguaggio familiare e simile a quello umano, possono essere ancora più rischiose, non solo propagando dati falsi che possono esacerbare operazioni poco informate e panico finanziario, ma anche persuadere i trader umani a commettere altri errori di giudizio a lungo termine.
Perché si creano le allucinazioni? A volte, il modo in cui vengono costruiti i prompt può confondere le attuali iterazioni dell'intelligenza artificiale generativa o dei modelli linguistici di grandi dimensioni (LLM). Allo stesso modo, gli altoparlanti intelligenti come Google Home o Amazon Echo possono interpretare erroneamente il rumore di fondo come una domanda indirizzata a loro.
Nella maggior parte dei casi, si verifica anche il caso in cui i primi AGI sono stati addestrati su un set di dati difettoso, a causa di etichette o categorizzazioni errate. Questo è più di un semplice caso in cui diverse parti della scena politica hanno la propria definizione di “fatti alternativi” o “notizie false” o scelgono di enfatizzare le notizie che fanno sembrare buona la loro parte e cattiva l’altra; l’AGI semplicemente non ha dati sufficienti nel suo modello per fornire una risposta diretta o coerente, quindi finisce nella tana del coniglio per fornirne una incoerente e indiretta.
In un certo senso, non è diversa da altre tecnologie nascenti che l’hanno preceduta, con un’ambizione che ha superato la qualità e la velocità di consegna dei dati esistenti. Internet non ha davvero cambiato le regole del gioco finché non ha potuto trasportare quantità significative di dati da un personal computer a un altro, e alcuni sostengono che il gioco è davvero cambiato quando i nostri telefoni cellulari hanno potuto fare lo stesso. Questa nuova AGI sta anche addestrando gli esseri umani a continuare a costruire per fornire a questi nuovi modelli di intelligenza artificiale set di dati migliori e modi più efficienti per fornire informazioni e intelligenza veloci, utilizzabili e, si spera, coerenti.
Esiste una soluzione?
Molti hanno suggerito diversi modi per ridurre al minimo le allucinazioni, incluso qualcosa chiamato retrieval-augmented generation (RAG), che è essenzialmente un modo per aggiornare continuamente le fonti di dati in tempo reale. Questo potrebbe essere uno dei vantaggi dell’intelligenza artificiale Grok di Elon Musk, che ha accesso alla fonte di dati pubblici in tempo reale più popolare degli ultimi 15 anni.
Tuttavia, ho un debole per la blockchain come soluzione. Non sarebbe rinchiuso in un gatekeeper aziendale o in un data garden recintato e potrebbe creare nuove e migliori fonti di dati decentralizzati. La Blockchain è costruita non solo per l’archiviazione e la trasmissione di dati peer-to-peer, ma anche per la trasmissione di pagamenti, il che potrebbe creare nuovi metodi di incentivazione per quella che sarà sicuramente una nuova fase radicale di un’economia dell’informazione intrisa di intelligenza artificiale.
Nel mondo della finanza, qualcosa come un grafico della conoscenza decentralizzato darebbe maggiore potere e incentivi alle parti interessate in tutto il settore a condividere più dati in modo trasparente. La Blockchain sarebbe in grado di aggiornare e verificare tutte le informazioni rilevanti e immutabili in tempo reale. Questo metodo di verifica dei dati sarebbe una versione potenziata di RAG e ridurrebbe drasticamente il numero di allucinazioni AGI, con risorse di conoscenza dotate di semantica e verificabilità integrate (nell'interesse della divulgazione, ho lavorato con OriginTrail, che sta sviluppando la sua versione di una conoscenza decentralizzata grafico).
Potrebbe esserci un giorno in cui i “robot” saranno trader ancora migliori delle persone. Alla fine, sarà nostra la scelta se creare un sistema che fornisca a questi robot gli strumenti per essere migliori, più robusti e più veloci nella realtà che creiamo e non in quella che stanno “allucinando”.
Per saperne di più: Gli scettici delle criptovalute avranno un caso più difficile da sostenere nel 2024 | Opinione
Author: Enzo Villani
Enzo Villani è amministratore delegato e chief investment officer di Alpha Transform Holdings. È un imprenditore seriale con vent'anni di esperienza come capo stratega per aziende Fortune 500, società di private equity e venture capital. Enzo è stato co-fondatore di Nasdaq Corporate Solutions e co-fondatore e direttore strategico di due consolidamenti strategici di M&A nei rapporti con gli investitori, sollecitazione di deleghe, governance aziendale e tecnologia finanziaria. Nel settore blockchain, Enzo è stato direttore strategico di Transform Group, che ha rappresentato il lancio di oltre il 37% della capitalizzazione di mercato delle alt-coin entro il 2019. Ha co-fondato Blockchain Wire e ha supervisionato la strategia internazionale e l'innovazione presso OKEx. Enzo ha conseguito un MBA presso la Johnson School della Cornell University.