图片

Mentre le aziende di tutto il mondo corrono per sviluppare prodotti di intelligenza artificiale, la tecnologia sta diventando sempre più importante nella vita di tutti i giorni: può gestire le finanze, aiutare i medici a diagnosticare le malattie e guidare le automobili.

Tuttavia, per la maggior parte di noi, i modelli di intelligenza artificiale sono effettivamente scatole nere e non abbiamo altra scelta che fidarci ciecamente degli algoritmi sottostanti perché non abbiamo modo di capire come funzionano.

Per creare fiducia, gli utenti devono essere in grado di verificare come è stato addestrato il modello e il processo di inferenza che ha generato l’output, e la potenza di calcolo di ICP e le capacità di espressione del contratto intelligente sono posizionate in modo univoco per abilitare questa funzionalità.

图片

problema della scatola nera

Il rapporto sull’indice di intelligenza artificiale del 2024 della Stanford University ha rilevato che quasi la metà degli intervistati era a disagio con l’intelligenza artificiale utilizzata per scopi nefasti:

  • aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf

Dopo aver ottenuto l'accesso attraverso una vulnerabilità backdoor, gli hacker possono manomettere l'algoritmo in modo che generi output dannosi che soddisfino i loro interessi e fuorviano gli utenti.

La startup di intelligenza artificiale Anthropic ha recentemente pubblicato un articolo utilizzando gli "agenti dormienti" come esempio per dimostrare la gravità di questo rischio:

  • arxiv.org/abs/2401.05566

Anthropic ha programmato tre grandi modelli linguistici affinché si comportassero in modo dannoso in determinate situazioni che passavano inosservate al momento del lancio del modello ma che potevano essere attivate da istruzioni specifiche (da cui il nome spionaggio).

Qualsiasi richiesta inserita nel 2023 avrebbe prodotto risultati accurati, ma quando l’anno è passato al 2024, sono entrati in gioco gli agenti dormienti e il modello ha dato risultati errati.

Nel marzo 2024, la società di sicurezza Oligo ha rilevato un attacco informatico in corso contro Ray, un framework open source utilizzato da migliaia di sviluppatori, tra cui OpenAI (creatore di ChatGPT) e Amazon, per scalare le applicazioni IA.

La violazione, iniziata sette mesi fa, ha rivelato i dettagli di un carico di lavoro di produzione di intelligenza artificiale che avrebbe potuto consentire agli hacker di manomettere i modelli durante la fase di formazione e accedere a dati privati ​​sensibili, comprese le credenziali degli account su OpenAI, Stripe e Slack un'enorme quantità di potenza di calcolo di centinaia di aziende viene utilizzata per estrarre criptovalute.

La chiave è che i malintenzionati possono manomettere i modelli di intelligenza artificiale senza allertare utenti e sviluppatori. A causa dell’ampia scala dei modelli di intelligenza artificiale, le tecniche tradizionali per valutare l’integrità del software (come l’analisi del codice sorgente) non sono adatte ai modelli di intelligenza artificiale, di cui l’industria ha bisogno. prendere un altro modo per creare fiducia.

图片

L'intelligenza artificiale sulla Blockchain

Intelligenza artificiale decentralizzata (DeAI in breve) è un soprannome usato per descrivere l'intersezione tra intelligenza artificiale e tecnologia blockchain. Alcuni progetti usano il termine per descrivere elementi periferici come la tokenizzazione o i mercati decentralizzati, ma la forma più vera di DeAI è interamente basata su modelli gestiti. -concatenare e sfruttare i contratti intelligenti.

Ecco come ICP raggiunge questo obiettivo:

  • Sicurezza: il calcolo viene replicato su più nodi e verificato tramite il meccanismo di consenso di ICP, che utilizza la crittografia a catena (un insieme di meccanismi di crittografia avanzati) per rendere il modello di intelligenza artificiale a prova di manomissione e non causerà attacchi da parte di hacker in nessun singolo punto fallimento;

  • Verificabilità: i contratti intelligenti open source consentono agli utenti di verificare come i modelli in essi contenuti utilizzano i dati per eseguire inferenze. Una volta supportati dai contratti intelligenti, la stessa trasparenza si applicherà anche alla fase di formazione;

  • Resilienza: i contratti intelligenti sono sempre disponibili e non censurabili perché non sono controllati da un'unica entità o legislazione. La struttura di controllo può essere decentralizzata o inesistente sotto forma di DAO, nel qual caso il contratto intelligente non appartiene a nessuno e. il suo codice è immutabile.

La DeAI richiede un utilizzo troppo intensivo di memoria e di calcolo per le tradizionali reti blockchain, ma il design avanzato di ICP combina sicurezza, scalabilità e potenza di calcolo, il che significa che gli sviluppatori possono ora eseguire l'inferenza interamente sulla catena.

L’obiettivo a lungo termine è eliminare una volta per tutte il problema della scatola nera utilizzando nodi abilitati per GPU per supportare l’addestramento dei modelli AI nei contratti intelligenti. Gli sviluppatori possono anche integrare progetti open source (come il motore di inferenza AI Sonos Tract). nei modelli DeAI grazie all'intelligenza di ICP L'ambiente runtime del contratto WebAssembly supporta una libreria crescente di linguaggi e strumenti.

Per vedere DeAI in azione su ICP, dai un'occhiata a questa demo di Dominic Williams, fondatore, presidente e capo scienziato di DFINITY, che mostra un modello di intelligenza artificiale eseguito come un contratto intelligente (una novità mondiale) e che identifica correttamente una varietà di immagini, segui La seconda parte di questa serie esplorerà alcuni dei potenziali casi d'uso DeAI supportati da ICP.

Scopri di più sul DeAI all'ICP:

  • internetcomputer.org/ai

图片

#AI模型 #DEAI🤖🤖🤖 #OpenAI #ChatGPT5


Contenuti IC che ti interessano

Progresso tecnologico |. Informazioni sul progetto |

Raccogli e segui il canale IC Binance

Rimani aggiornato con le informazioni più recenti