IBM ha recentemente lanciato un nuovo "Lightweight Engine" per il suo servizio WatsonX.ai. Sebbene sia principalmente mirato all'"impresa", potrebbe fungere da rampa di lancio per un'implementazione di AI generativa interna e sicura per le piccole aziende che cercano di scalare o per le aziende di medie dimensioni in settori in rapida crescita come la tecnologia finanziaria.

Il mercato dell'intelligenza artificiale generativa è, indiscutibilmente, il catalizzatore principale dietro la crescita dei ricavi del settore tecnologico nella prima metà del 2024. Solo dieci anni prima, pochi avrebbero potuto prevedere le dimensioni e la portata di un settore ampiamente guidato dalla popolarità esplosiva di grandi modelli linguistici come ChatGPT di OpenAI e Claude di Anthropic.

AI generativa nei servizi finanziari

Prima del lancio di ChatGPT, gli esperti delle comunità di intelligenza artificiale e finanza avevano ampiamente notato che i modelli linguistici di grandi dimensioni come GPT-3 semplicemente non erano abbastanza affidabili o accurati per l'uso nel mondo della finanza o in qualsiasi altro luogo in cui non vi fosse margine di errore.

Nonostante i progressi nel campo dal 2023 di ChatGPT, lo stesso adagio rimane vero: i modelli di IA addestrati per un uso generale, su dati pubblici, sono imprevedibili tanto quanto le informazioni su cui vengono addestrati. Affinché un modello di IA generativa sia più di un semplice chatbot in grado di eseguire alcune funzioni di codifica, i modelli devono essere specializzati.

JP Morgan Chase, ad esempio, ha recentemente acquistato l'accesso aziendale a ChatGPT di OpenAI per l'intera forza lavoro di 60.000 dipendenti, che include la messa a punto dei dati interni e protezioni personalizzate. È chiaro che anche il settore dei servizi finanziari sta saltando a bordo del treno dell'intelligenza artificiale generativa.

Oltre i chatbot

Mentre molti servizi AI rivolti al pubblico come ChatGPT offrono opzioni di livello aziendale, tendono a essere interamente basati sul cloud. Nei settori in cui obblighi normativi e fiduciari richiedono che determinati tipi di dati siano isolati dalla possibilità di manipolazione esterna, come i settori fintech e dei servizi finanziari, le soluzioni AI basate sul cloud potrebbero non soddisfare i requisiti di sicurezza.

WatsonX.ai di IBM funziona sia con soluzioni basate su cloud che on-premise e, con l'aggiunta di Lightweight Engine, i modelli possono essere eseguiti e distribuiti in loco con un ingombro ridotto.

Cointelegraph ha chiesto a IBM informazioni sulle applicazioni del servizio e Savio Rodrigues, vicepresidente dell’azienda per l’ingegneria degli ecosistemi e la difesa degli sviluppatori, ci ha detto:

"Man mano che le aziende aggiungono soluzioni on-premise, vogliono la piattaforma più leggera per l'azienda per distribuire ed eseguire i loro casi d'uso di intelligenza artificiale generativa, in modo da non sprecare CPU o GPU. È qui che entra in gioco il motore leggero watsonx.ai, che consente a ISV e sviluppatori di scalare le soluzioni GenAI aziendali ottimizzando al contempo i costi".

Nel fintech e in altri settori in rapida crescita, come mining, blockchain e prestiti crittografici, in cui le soluzioni di intelligenza artificiale off-site potrebbero non soddisfare tutte le esigenze di sicurezza di un'azienda, la flessibilità di una soluzione basata su cloud e on-premise potrebbe fare la differenza tra lo sviluppo e l'implementazione di modelli internamente o l'abbonamento alla soluzione di un'altra azienda.

Esistono, tuttavia, numerosi servizi concorrenti, con aziende che vanno da Microsoft, Google e Amazon, fino alle startup focalizzate sulla creazione di soluzioni di intelligenza artificiale su misura che forniscono servizi simili.

Sebbene un confronto diretto dei servizi vada oltre lo scopo di questo articolo, il Lightweight Engine di IBM sembra essere all'altezza del suo nome. Il suo ingombro ridotto e la maggiore efficienza hanno il prezzo di perdere alcune funzionalità che sarebbero disponibili solo nella versione full weight.

Correlato: Apple ha utilizzato i chip di Google per addestrare la sua intelligenza artificiale: cosa ne sarà di Nvidia?