Paolo Ardoino, CEO della piattaforma blockchain Tether, sostiene che solo se i modelli di intelligenza artificiale saranno localizzati le persone e la privacy saranno protette. 

Ardoino ha affermato che i modelli di intelligenza artificiale eseguibili localmente garantirebbero anche la resilienza e l’indipendenza dei modelli.

Ha indicato le tecnologie più recenti a disposizione degli utenti, come smartphone e laptop, affermando che contengono abbastanza potenza per “sintonizzare con precisione i modelli generali di linguaggio di grandi dimensioni (LLM) con i dati dell’utente, preservando i miglioramenti localmente sul dispositivo”.

Il post X terminava con “WIP”, l’acronimo comune di “lavori in corso”.

Parlando con Cointelegraph, Ardoino ha affermato che i modelli di intelligenza artificiale eseguibili localmente rappresentano un “cambiamento di paradigma” nella privacy e nell’indipendenza degli utenti:

"Eseguendo direttamente sul dispositivo dell'utente, che sia uno smartphone o un laptop, questi modelli eliminano la necessità di server di terze parti. Ciò non solo garantisce che i dati rimangano locali, migliorando la sicurezza e la privacy, ma consente anche l'uso offline".

Ha affermato che ciò consente agli utenti di godere di "potenti esperienze basate sull'intelligenza artificiale e analisi dei dati" mantenendo comunque il controllo completo sulle proprie informazioni.

Tether ha annunciato di recente la sua espansione nell'intelligenza artificiale, e Ardoino ha affermato che l'azienda sta "esplorando attivamente" l'integrazione di modelli eseguibili localmente nelle sue soluzioni di intelligenza artificiale.

Questa è la risposta a un recente attacco informatico subito dallo sviluppatore di ChatGPT, OpenAI.

Secondo quanto riportato, all'inizio del 2023, un hacker ha recuperato l'accesso ai sistemi di messaggistica interna di OpenAI. Grazie a questo accesso, sono riusciti a compromettere i dettagli del design dell'IA dell'azienda.

Due fonti vicine alla questione hanno affermato che l'hacker ha rubato dettagli da discussioni delicate tra i dipendenti di OpenAI sulle tecnologie dell'azienda.

Inoltre, gli utenti di ChatGPT hanno ricevuto una chiamata di allarme dopo che è stato rivelato che le conversazioni degli utenti macOS non erano crittografate ma archiviate in file di testo normale.

Ciò avviene poco dopo che Apple ha annunciato che integrerà ChatGPT con la sua nuova gamma di prodotti e servizi basati sull'intelligenza artificiale "Apple Intelligence".

Il problema è stato già risolto, anche se la comunità si sta ancora chiedendo perché sia ​​successo in primo luogo. Alcune ipotesi sono state che sarebbe stato facile per OpenAI accedere ai log delle chat per sviluppare e addestrare ulteriormente ChatGPT.

OpenAI è uno dei principali sviluppatori di IA che attualmente rilascia modelli di IA di alto livello, insieme a Google, Meta e Microsoft. Gli analisti del settore e persino i governi di tutto il mondo si sono preoccupati di cosa potrebbe significare per gli utenti un monopolio delle Big Tech sui modelli di IA in termini di privacy e controllo dei dati.

Molti hanno addirittura chiesto la decentralizzazione dell’intelligenza artificiale, con iniziative come la 6079 che propugnano una sfida esplicita al predominio delle Big Tech nel settore dell’intelligenza artificiale per un futuro più equo.

Rivista: gli investitori di “Raider” stanno saccheggiando le DAO — Nouns e Aragon condividono le lezioni apprese