Beaucoup de gens ne comprennent toujours pas pourquoi j'appelle toujours les projets de normes des cadres AI à se tourner vers la « chaîne ». Peut-être qu'au cours des deux dernières vagues de marchés haussiers et baissiers, l'infrastructure de la chaîne a supporté trop d'attentes, et il a fallu du temps pour arriver à l'ère de l'application des agents AI, ce qui donne à tout le monde une certaine peur de la « chaîne ». Mais, pour que les agents AI prennent des décisions de manière plus autonome et coopèrent de manière interopérable, il est inévitable qu'ils tendent vers la « chaîne ».
Les cadres actuellement populaires comme ELIZA, ARC et Swarms sont essentiellement encore au « stade conceptuel », ce stade ne peut pas être falsifié ou revenir à zéro, tout comme il ne peut pas être prouvé ou exploser, il est essentiellement dans une phase de couche où l'évaluation ne peut pas être quantifiée. C'est le premier obstacle pour les actifs émis sur Github, il faut trouver des possibilités de mise en œuvre pour le cadre et la vision esquissés afin d'obtenir une reconnaissance unanime du marché.
Si nous examinons de près les cadres comme ELIZA, ARC et Swarms, que ce soit pour optimiser de manière extrême les performances d'un agent AI unique ou pour la coopération interagent AI, ils doivent essentiellement élaborer un ensemble de logique et de règles traçables pour l'appel des API du modèle AGI.
Après tout, les données sont hors chaîne, le processus de raisonnement est difficile à vérifier, le processus d'exécution est opaque et les résultats d'exécution sont incertains.
D'un point de vue à court terme, le TEE fournit un ensemble de solutions à faible coût et à haute faisabilité sans confiance hors chaîne qui peuvent accélérer l'application de l'AGI dans la phase de prise de décision autonome des agents AI. D'un point de vue à plus long terme, un ensemble de « consensus en chaîne » est également nécessaire pour devenir plus fiable.
Par exemple, ELIZA souhaite construire une solution de gestion de clés privées autonome basée sur son cadre, utilisant la capacité de certification à distance sécurisée TEE de @PhalaNetwork, ce qui peut garantir que le code d'exécution de AI-Pool n'est pas modifié avant l'appel de la signature de la clé privée, mais cela n'est que le premier petit pas du TEE vers la direction des agents AI.
Si nous pouvons mettre la logique d'exécution complexe prédéfinie dans le contrat d'agent, permettant aux validateurs de la chaîne Phala de participer à la vérification, une chaîne de règles d'exécution TEE basées sur le consensus de la chaîne serait alors créée. À ce moment-là, la demande d'agents AI stimulera le TEE, et le TEE stimulera le volant d'entrainement positif de l'habilitation de la chaîne.
La logique a beaucoup de sens, le TEE peut garantir que la clé privée est invisible, mais comment la clé privée est-elle appelée, sur la base de quelles règles prédéfinies elle est appelée, comment la réponse d'urgence en matière de risque est-elle déclenchée, etc. À court terme, cela peut être confié aux bibliothèques de code open source pour réaliser la transparence, mais à plus long terme, cela ne repose-t-il pas sur un ensemble de consensus de validation décentralisé pour vérifier cela en temps réel ?
Ainsi, la « chaîne » peut accélérer la phase de mise en œuvre réelle du cadre des agents AI, et peut également apporter de nouvelles opportunités d'augmentation avec l'infrastructure Crypto.
La direction est déjà très claire, pour la plupart des gens, chercher et être optimiste, le cadre des agents AI le plus tôt possible et la première chaîne soutenant les agents AI sont vraiment l'alpha de la nouvelle tendance des agents AI.