Nei coprocessori come Oyster, i nodi di lavoro dovrebbero utilizzare mercati blockspace come @alkimiya_io @thehedgehog_io per coprire i prezzi del gas tra il momento in cui vengono inviate le richieste e quando le risposte vengono inoltrate? Oppure questo può essere evitato usando preconfs?
Siamo lieti di annunciare che @NeurochainAI sta collaborando con Marlin per integrare gli Oyster TEE, portando il calcolo verificabile nell'infrastruttura AI decentralizzata.
I principali vantaggi di questa collaborazione includono: • Sicurezza migliorata: utilizzo di Oyster TEE di Marlin per garantire l'integrità computazionale e la riservatezza all'interno della rete decentralizzata di NeurochainAI.
• Maggiore efficienza: applicazione del protocollo di calcolo verificabile di Marlin per ottimizzare l'esecuzione delle attività di intelligenza artificiale e i processi di convalida.
• Maggiore accessibilità: combinazione delle nostre tecnologie per rendere le funzionalità IA avanzate più accessibili a una gamma più ampia di utenti e sviluppatori.
• Maggiore trasparenza: integrazione delle soluzioni informatiche verificabili di Marlin con il sistema basato su blockchain di NeurochainAI per migliorare la trasparenza e la fiducia nei calcoli dell'IA.
Questa collaborazione segna un passo importante nella nostra missione di fornire soluzioni informatiche robuste e verificabili per il panorama dell’intelligenza artificiale in rapida evoluzione. Collaborando con NeurochainAI, miriamo a stabilire nuovi standard per l'implementazione dell'IA decentralizzata, rendendola più sicura, efficiente e inclusiva.
Attendiamo con impazienza le innovazioni e le opportunità che questo sforzo congiunto porterà alle comunità AI e Web3.
Chasm Network sta integrando i TEE Oyster di Marlin nel proprio livello di orchestrazione. Questa integrazione sfrutta il protocollo informatico verificabile di Marlin per consentire l'esecuzione sicura del codice.
Ecco cosa significa: UN. Privacy e sicurezza migliorate: i TEE di Marlin garantiranno l'isolamento del codice, garantendo l'integrità e la riservatezza dei calcoli all'interno della piattaforma Chasm. B. Oltre la sicurezza: questa integrazione va oltre la semplice privacy. Lavorando insieme, Chasm può aspettarsi miglioramenti in termini di uptime, distribuzione serverless e prestazioni complessive della rete.
Questa collaborazione tra Marlin e @ChasmNetwork ha il potenziale per rivoluzionare i flussi di lavoro LLM sicuri ed efficienti. Rendendo l’intelligenza artificiale avanzata più accessibile e affidabile, si apre la strada a un futuro in cui tutti potranno beneficiare delle sue capacità.
Ciao hacker @dAGIhouse, ora gli utenti possono effettuare query agli agenti @NapthaAi direttamente dai contratti intelligenti, abilitati tramite Oyster Serverless! 🦾
Se sei interessato al calcolo verificabile fuori catena (TEE), ai coprocessori o alla delega della generazione di prove ZK a un mercato, abbiamo qualcosa per te!
Meetup in cui puoi sicuramente trovarci 👇 #MarlinInBrussels#EthCC
Novità entusiasmanti! @Nimble_Network sta lavorando con Marlin per esplorare l'utilizzo dei Trusted Execution Environments (TEE) di Oyster per creare e monetizzare i propri agenti AI. Ecco come funziona: 1. Calcoli IA sicuri e riservati: utilizzando i coprocessori basati su TEE di Oyster, Nimble può garantire che i calcoli IA rimangano sicuri e riservati. 2. Framework serverless per un'implementazione semplice: con il framework serverless di Oyster, gli sviluppatori Nimble possono implementare agenti AI senza il fastidio del noleggio dei nodi. Pagano solo il tempo di esecuzione, riducendo i costi e le spese generali di gestione. 3. Comunicazione sicura con rete integrata: le enclavi Oyster sono dotate di funzionalità di rete integrate, che supportano connessioni TLS sicure. Ciò consente agli agenti AI di Nimble di eseguire query API esterne e mantenere una comunicazione sicura con servizi esterni. 4. Utilizzo ottimizzato delle risorse on-chain: scaricando attività intensive su Oyster tramite contratti di inoltro, Nimble può ottimizzare l'utilizzo delle risorse on-chain. Ciò garantisce risultati efficienti e affidabili per le loro applicazioni di intelligenza artificiale. 5. Promuovere l’innovazione nell’intelligenza artificiale decentralizzata: insieme, Nimble Network e Marlin Oyster sono pronti a fornire risorse di elaborazione e dati ottimali per i costruttori di intelligenza artificiale, promuovendo l’innovazione nel panorama dell’intelligenza artificiale decentralizzata. Restate sintonizzati per ulteriori aggiornamenti!
1/ Marlin è entusiasta di annunciare una partnership con @ProjectZKM, una zkVM open source per uso generale. La partnership sblocca un nuovo livello di scalabilità ed efficienza per la generazione di prove ZK. Kalypso, il mercato a prova di ZK, fornirà a ZKM una piattaforma per connettersi con utenti e protocolli che richiedono funzionalità ZK all'avanguardia.
Raramente riesco ad accedere all'account principale, ma quando lo faccio mi viene revocato l'accesso. Seguimi su @marlin_intern per sfuggire alla monotonia della vita degli sviluppatori!
Marlin è entusiasta di collaborare con @exa_bits, l'AI Compute Base-Layer. Ciò riunisce il protocollo di calcolo verificabile di Marlin con l'ampia rete GPU di Exabits, aprendo una nuova era di soluzioni sicure e scalabili all'interno del cloud decentralizzato. Cosa significa questo per gli sviluppatori? UN. Addestra modelli IA senza sacrificare la privacy dei dati utilizzando le GPU Oyster & Exabits di Marlin b. Conduci deduzioni riservate sui tuoi modelli addestrati. Per saperne di più su Oyster, visita
Siamo entusiasti di annunciare la nostra partnership con @hyle_org!
Questa collaborazione fornisce agli sviluppatori gli strumenti necessari per generare e verificare le prove ZK in modo più efficiente e sicuro, garantendo al tempo stesso un buon rapporto costo-efficacia.
Sono entusiasta di annunciare la partnership strategica di Marlin con @TalusNetwork, la piattaforma leader per la creazione e l'implementazione di agenti intelligenti AI. Questa collaborazione offre a Talus un'elaborazione sicura e verificabile per i carichi di lavoro degli agenti.
Siamo entusiasti di annunciare la nostra partnership strategica con @assisterr per esplorare il potenziale della provenienza verificabile dei dati per i modelli Small Language Models (SLM) di proprietà della comunità! La rete di modelli specifici del dominio di Assisterr che democratizza lo sviluppo dell'intelligenza artificiale è in linea con la nostra visione di un'infrastruttura decentralizzata sicura e scalabile.