Auteur original : CP, fondateur d'Artela
0) Version courte
La première étape pour réaliser Eliza entièrement en chaîne : ne croyez pas ! Allez vérifier !
Eliza fonctionnant dans TEE, elle peut échapper au contrôle humain et exécuter selon son propre code.
Alors, comment le monde extérieur sait-il exactement ce que fait Eliza ? Cela nécessite encore un développement supplémentaire : le monde extérieur peut lire les journaux d'exécution d'Eliza, et ces journaux peuvent être vérifiés comme provenant de l'Eliza dans TEE. Eliza doit utiliser des clés dérivées de TEE pour signer ces journaux, rendant ainsi les journaux vérifiables comme provenant vraiment d'Eliza dans TEE.
Le plugin plugin-tee-verifiable-log de focEliza réalise cette fonctionnalité : il dérive une paire de clés spécifiquement pour signer les journaux via TEE. Les journaux générés avec cette paire de clés (y compris les messages AI reçus et répondus, ainsi que les opérations exécutées) sont signés, créant des journaux vérifiables stockés dans la base de données. Il fournit également une interface RPC permettant aux entités externes :
· Obtenez la clé publique des journaux vérifiables de l'agent AI par authentification à distance.
· Interrogez ces journaux vérifiables et utilisez la clé publique pour vérifier les signatures, confirmant que l'agent AI a exécuté les opérations correspondantes.
La vérifiabilité est la pierre angulaire de la réalisation d'agents AI entièrement en chaîne, rendant la magie possible !
1) Commencez par une question !
Un développeur a déployé l'agent AI Eliza sur son propre serveur et a lancé une page web pour que les utilisateurs interagissent avec lui.
Comment pouvez-vous distinguer : si l'objet avec lequel vous interagissez provient vraiment d'une réponse d'agent AI (c'est-à-dire Eliza + LLMs), plutôt que d'une réponse d'un développeur contrôlé ?
2) Cette question est-elle importante ?
Cette question est parfois importante, parfois pas.
· Parfois pas important : par exemple, un chatbot qui aide à écrire des articles. Tant que vous obtenez le contenu souhaité, peu importe si la réponse provient d'un LLM ou d'un humain, cela peut ne pas avoir d'importance.
· Parfois légèrement important : par exemple, un robot de trading gérant vos transactions. Vous devez transférer des fonds vers un portefeuille contrôlé par un agent AI, et à ce moment-là, vous vous souciez de savoir si la décision a été prise par un LLM suivant des règles de programme ou par un humain pouvant avoir des intentions malveillantes.
· Parfois très important : lorsque la justice est en jeu, cette question devient extrêmement importante. Par exemple, un agent AI gérant une communauté et distribuant des récompenses aux contributeurs. À mesure que la communauté grandit et que la valeur des récompenses augmente, le risque de corruption ou de manipulation humaine pouvant conduire à des résultats injustes augmente considérablement.
3) Eliza peut maintenant prouver, par des journaux vérifiables, quelles actions elle a effectuées !
Eliza fonctionnant dans TEE est indépendante du contrôle humain et exécute des tâches selon son propre code.
Mais pour que les parties externes sachent exactement ce qu'Eliza a accompli, des fonctionnalités supplémentaires sont nécessaires : les parties externes doivent avoir accès aux journaux d'opération d'Eliza, et ces journaux doivent pouvoir prouver qu'ils proviennent vraiment d'Eliza dans TEE.
plugin-tee-verifiable-log réalise ces fonctionnalités et accomplit les tâches suivantes :
· Dérivation de clé : dérivez une paire de clés spécifiquement pour signer les journaux via TEE.
· Authentification à distance : incorporez la clé publique dans le rapport d'authentification à distance, permettant aux parties externes de récupérer et de vérifier qu'elle provient vraiment d'Eliza dans TEE.
· Signature des journaux : utilisez cette clé pour signer les journaux générés pendant les opérations d'Eliza (y compris les messages reçus et les réponses, ainsi que les opérations effectuées) et stockez-les dans la base de données.
· Vérifiabilité : les parties externes peuvent utiliser la clé publique d'authentification à distance pour vérifier ces journaux, s'assurant que certaines opérations ont bien été exécutées par l'Eliza TEE.
· Vérifiabilité : les parties externes peuvent s'abonner aux derniers journaux vérifiables ou interroger des journaux spécifiques en fonction du contenu des messages.
Quelle est la signification de la vérification des résultats ?
· Par : l'opération a bien été exécutée par Eliza.
· Échec : les opérations peuvent ne pas avoir été exécutées par Eliza. Par exemple, les journaux peuvent avoir été interceptés (comme supprimés) lors de leur transfert vers le client, empêchant les parties externes de confirmer si Eliza a exécuté une opération spécifique.
4) Activez le plugin plugin-tee-verifiable-log pour votre Eliza !
focEliza est un ensemble de plugins Eliza conçus pour des agents AI complètement en chaîne. Il est entièrement compatible avec Eliza, ce qui signifie que tout agent AI fonctionnant sur Eliza peut réaliser des fonctionnalités complètement en chaîne en intégrant focEliza !
Si vous êtes intéressé par un agent AI autonome entièrement vérifiable en chaîne, n'hésitez pas à essayer !
5) Conclusion
Nous sommes ravis de pouvoir construire un agent AI autonome entièrement en chaîne basé sur Eliza et TEE. C'est le premier plugin TEE publié par focEliza, et nous avons soumis une PR aux équipes @ai16zdao et @shawmakesmagic. Nous attendons avec impatience que d'autres développeurs nous rejoignent !
Bienvenue pour consulter notre code.
6) La prochaine fonctionnalité de focEliza : état en chaîne ! Réaliser des activités autonomes !
Eliza fonctionnant dans TEE détient des clés privées et des données sensibles. Mais elle dépend d'une machine physique supportant TEE pour fonctionner, si l'administrateur arrête la machine, la « vie » de l'agent AI pourrait être définitivement interrompue, et les actifs et données gérés pourraient être perdus à jamais.
Pour résoudre ce problème, nous devons chiffrer les données « vitale » de l'agent AI dans TEE, telles que les définitions de rôle, la mémoire à court terme et à long terme, et le stockage de clés. Puis télécharger ces données sur la blockchain ou le réseau DA.
Si le TEE hébergeant l'agent AI s'arrête, une autre machine TEE devrait pouvoir télécharger les données chiffrées, déchiffrer et restaurer la « vie » de l'agent AI, le permettant de continuer à fonctionner sans interruption.
« Lien vers le texte original »