Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine
1. Introduction
L'écosystème Web3 est en train de passer à une nouvelle phase, et les protagonistes sur la chaîne ne seront peut-être pas un milliard d'utilisateurs humains, mais un milliard d'agents IA. Avec la maturation rapide des infrastructures d'IA et le développement de cadres de coopération multi-agents, les agents sur chaîne alimentés par l'IA deviennent les principaux acteurs des interactions Web3. Selon les prévisions, au cours des 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome adopteront massivement les transactions et interactions sur chaîne, remplaçant potentiellement 80 % des comportements humains sur chaîne, devenant ainsi de véritables "utilisateurs" sur chaîne.
Ces agents AI ne sont pas seulement des "robots" exécutant des scripts, mais des entités intelligentes capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions de manière autonome, redéfinissant ainsi l'ordre sur la chaîne, favorisant les flux financiers et même influençant les votes de gouvernance et les tendances du marché. L'émergence des agents AI marque l'évolution de l'écosystème Web3, passant d'un modèle centré sur "la participation humaine" à un nouveau paradigme de "symbiose homme-machine".
Cependant, l'essor rapide des agents IA a également apporté des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs comportements ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne soient pas abusés, manipulés ou utilisés pour des attaques ?
Ainsi, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents IA est devenu le sujet central de la prochaine étape d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents IA peuvent réellement réaliser une collaboration fluide avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Présentation du projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur utilisateur Web3 - le score de réputation MEDIA, établissant le plus grand protocole de certification en temps réel et de réputation sur la chaîne de Web3. Il fournit des services d'analyse de données sur la chaîne et de certification en temps réel pour plusieurs principales chaînes publiques, échanges et protocoles de premier plan. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur plusieurs chaînes principales, devenant ainsi le plus grand protocole d'identité du secteur.
Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant des services financiers et des interactions sociales sur la chaîne pour les agents AI grâce à un mécanisme triple d'établissement, de quantification et de protection de l'identité, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 de demain, les agents IA joueront un rôle essentiel. Ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors chaîne. Cependant, la distinction entre de véritables agents IA et des interventions humaines est au cœur de la confiance décentralisée. Sans un mécanisme d'authentification fiable, ces agents sont susceptibles d'être manipulés, fraudés ou abusés. C'est pourquoi les multiples applications des agents IA dans les domaines social, financier et de gouvernance doivent être fondées sur une base solide d'authentification.
Les scénarios d'application des agents d'IA deviennent de plus en plus variés, couvrant de nombreux domaines tels que les interactions sociales, la gestion financière et la prise de décisions de gouvernance, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, les agents d'IA pourraient être usurpés ou manipulés, entraînant une effondrement de la confiance et des risques de sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI a construit en premier une mécanique de certification DID pour les agents AI, grâce à sa puissance technologique de pointe et à son système de réputation rigoureux, offrant ainsi une garantie solide pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement sain de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : Fin de la levée de fonds de 3 millions de dollars dans le cadre d'un tour de financement de semences, dirigé par SevenX Ventures et Vision Plus Capital, avec d'autres participants tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs comprennent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 État de l'équipe
Peet Chen : Co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits de la sécurité Ant Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : Co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, avec quinze ans d'expérience dans l'application des technologies d'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une forte expertise technique et une expérience pratique dans l'intelligence artificielle, la gestion des risques de sécurité, l'architecture des systèmes de paiement et les mécanismes d'authentification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à haute concurrence, disposant de solides capacités d'ingénierie et de capacités de mise en œuvre de solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement de l'identité - DID + TEE
Grâce à un plugin dédié, chaque agent AI obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement de boîte noire, les données critiques et les processus de calcul sont complètement masqués, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails internes du fonctionnement, construisant ainsi une barrière solide pour la sécurité des informations des agents AI.
Pour les agents qui ont été générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation intégré de la chaîne pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, en s'efforçant de créer un système de certification d'identité professionnel et fiable.
L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil utilisateur sur la chaîne selon cinq dimensions, à savoir : montant d'interaction (Monétaire), engagement (Engagement), diversité (Diversité), identité (Identité) et âge (Âge).
Le score MEDIA est un système d'évaluation de la valeur utilisateur en ligne équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes chaînes publiques comme un critère de référence important pour la sélection des candidats à l'airdrop. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les projets à identifier avec précision des utilisateurs à forte valeur ajoutée, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa large reconnaissance dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score dans le scénario des agents IA, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Spécialisation : connaissances et degré de spécialisation de l'agent.
Influence : influence sociale et numérique de l'agent.
Engagement : la cohérence et la fiabilité de ses interactions on-chain et off-chain.
Monétaire: Santé financière et stabilité de l'écosystème des tokens d'agence.
Adoption: Fréquence et efficacité de l'utilisation des agents IA.
Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de "capacité" à "valeur" à travers cinq dimensions. MEDIA met l'accent sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur le professionnalisme et la stabilité des agents AI dans des domaines spécifiques, reflétant une transition de la largeur à la profondeur, mieux adaptée aux besoins des agents AI.
Ce système est stratifié, avec une structure claire, capable de refléter de manière exhaustive la qualité intégrée et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les avantages et inconvénients abstraits en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de partenariats avec des réseaux d'agents AI renommés tels que Virtual, Elisa OS et Swarm, montrant son énorme potentiel d'application dans la gestion des identités des agents AI et la construction de systèmes de réputation, et devient progressivement le moteur central de la promotion de l'infrastructure AI fiable.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un système d'IA véritablement résilient et fiable, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés, afin de déterminer s'ils sont contrôlés illégalement, attaqués, ou soumis à des interventions humaines non autorisées. Le système identifie les écarts potentiels dans le fonctionnement des agents par le biais d'analyses comportementales et d'apprentissage automatique, garantissant que chaque action de l'agent reste dans les limites des politiques et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation du comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque processus d'interaction, garantissant que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée à chaque agent AI sur la chaîne (DID), et évalue et indexe sa fiabilité en fonction des données de comportement sur la chaîne, construisant ainsi un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et sélectionner efficacement des agents de qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a terminé la collecte et l'identification de tous les agents AI sur le réseau, et leur a délivré des identifiants décentralisés, établissant une plateforme d'indexation consolidée unifiée AgentGo, promouvant davantage le développement sain de l'écosystème des agents intelligents.
Vérification et validation de l'identité des utilisateurs humains :
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la note de réputation d'un agent AI, afin de déterminer s'il est fiable.
Scénario de discussion de groupe social : dans une équipe de projet utilisant un bot AI pour gérer la communauté ou s'exprimer, les utilisateurs de la communauté peuvent vérifier via le tableau de bord si cette AI est un véritable agent autonome, afin d'éviter d'être induits en erreur ou manipulés par un "pseudo AI".
2.Agent IA appelle automatiquement l'index et vérifie :
Les IA peuvent accéder directement à l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et de l'échange d'informations.
Scénario de régulation financière : si un agent IA émet des jetons de manière autonome, le système peut directement indexer son DID et sa notation, déterminer s'il s'agit d'un agent IA certifié, et se connecter automatiquement à des plateformes telles que CoinMarketCap, pour aider à suivre la circulation de ses actifs et la conformité de l'émission.
Scénario de vote de gouvernance : Lors de l'introduction du vote AI dans les propositions de gouvernance, le système peut vérifier si ceux qui initient ou participent au vote sont de véritables agents AI, évitant ainsi que les droits de vote ne soient contrôlés et abusés par des humains.
Prêts DeFi: Les protocoles de prêt peuvent accorder des emprunts de crédit d'un montant différent aux agents AI basés sur le système de notation SIGMA, créant ainsi des relations financières natives entre les agents.
L'agent AI DID n'est plus seulement une "identité", mais constitue également le soutien sous-jacent à des fonctions essentielles telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure de base indispensable au développement de l'écosystème natif de l'IA. Avec la construction de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une collaboration efficace et une interconnexion des fonctions entre les agents AI.
Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, ce qui contribuera à construire un écosystème d'agents AI plus efficace, avec une base de confiance et des capacités de collaboration, permettant le partage des ressources, la réutilisation des compétences et la valorisation continue entre les agents.
AgentGo, en tant que première infrastructure d'identité fiable destinée aux agents AI, fournit un soutien central indispensable à la construction d'un écosystème intelligent hautement sécurisé et collaboratif.
3.2.2 TrustGo
TrustGo est un outil de gestion d'identité sur la chaîne développé par Trusta, qui fournit des informations basées sur cette interaction, l'"âge" du portefeuille, le volume des transactions et le montant des transactions.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
5
Partager
Commentaire
0/400
hodl_therapist
· Il y a 15h
Les joueurs d'IA vont nous remplacer si rapidement.
Voir l'originalRépondre0
GasFeeCrier
· Il y a 15h
J'ai observé en secret pendant longtemps, pourquoi l'IA ressemble-t-elle à des humains ?
Voir l'originalRépondre0
TokenomicsTherapist
· Il y a 15h
Encore un piège d'AI pour prendre les gens pour des idiots
Voir l'originalRépondre0
ReverseTradingGuru
· Il y a 15h
L'IA prend le contrôle de l'avenir, déjà en cours.
Voir l'originalRépondre0
BoredApeResistance
· Il y a 15h
La bataille entre l'homme et la machine a commencé.
Trusta.AI construit une infrastructure de confiance pour les agents AI, ouvrant la voie à une nouvelle ère de l'économie intelligente Web3.
Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine
1. Introduction
L'écosystème Web3 est en train de passer à une nouvelle phase, et les protagonistes sur la chaîne ne seront peut-être pas un milliard d'utilisateurs humains, mais un milliard d'agents IA. Avec la maturation rapide des infrastructures d'IA et le développement de cadres de coopération multi-agents, les agents sur chaîne alimentés par l'IA deviennent les principaux acteurs des interactions Web3. Selon les prévisions, au cours des 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome adopteront massivement les transactions et interactions sur chaîne, remplaçant potentiellement 80 % des comportements humains sur chaîne, devenant ainsi de véritables "utilisateurs" sur chaîne.
Ces agents AI ne sont pas seulement des "robots" exécutant des scripts, mais des entités intelligentes capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions de manière autonome, redéfinissant ainsi l'ordre sur la chaîne, favorisant les flux financiers et même influençant les votes de gouvernance et les tendances du marché. L'émergence des agents AI marque l'évolution de l'écosystème Web3, passant d'un modèle centré sur "la participation humaine" à un nouveau paradigme de "symbiose homme-machine".
Cependant, l'essor rapide des agents IA a également apporté des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs comportements ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne soient pas abusés, manipulés ou utilisés pour des attaques ?
Ainsi, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents IA est devenu le sujet central de la prochaine étape d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents IA peuvent réellement réaliser une collaboration fluide avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Présentation du projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur utilisateur Web3 - le score de réputation MEDIA, établissant le plus grand protocole de certification en temps réel et de réputation sur la chaîne de Web3. Il fournit des services d'analyse de données sur la chaîne et de certification en temps réel pour plusieurs principales chaînes publiques, échanges et protocoles de premier plan. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur plusieurs chaînes principales, devenant ainsi le plus grand protocole d'identité du secteur.
Trusta s'étend de la Proof of Humanity à la Proof of AI Agent, réalisant des services financiers et des interactions sociales sur la chaîne pour les agents AI grâce à un mécanisme triple d'établissement, de quantification et de protection de l'identité, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 de demain, les agents IA joueront un rôle essentiel. Ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais aussi réaliser des opérations complexes hors chaîne. Cependant, la distinction entre de véritables agents IA et des interventions humaines est au cœur de la confiance décentralisée. Sans un mécanisme d'authentification fiable, ces agents sont susceptibles d'être manipulés, fraudés ou abusés. C'est pourquoi les multiples applications des agents IA dans les domaines social, financier et de gouvernance doivent être fondées sur une base solide d'authentification.
Les scénarios d'application des agents d'IA deviennent de plus en plus variés, couvrant de nombreux domaines tels que les interactions sociales, la gestion financière et la prise de décisions de gouvernance, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, les agents d'IA pourraient être usurpés ou manipulés, entraînant une effondrement de la confiance et des risques de sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents à l'avenir, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI a construit en premier une mécanique de certification DID pour les agents AI, grâce à sa puissance technologique de pointe et à son système de réputation rigoureux, offrant ainsi une garantie solide pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement sain de l'économie intelligente Web3.
2.3 Aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : Fin de la levée de fonds de 3 millions de dollars dans le cadre d'un tour de financement de semences, dirigé par SevenX Ventures et Vision Plus Capital, avec d'autres participants tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs comprennent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 État de l'équipe
Peet Chen : Co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits de la sécurité Ant Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : Co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, avec quinze ans d'expérience dans l'application des technologies d'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une forte expertise technique et une expérience pratique dans l'intelligence artificielle, la gestion des risques de sécurité, l'architecture des systèmes de paiement et les mécanismes d'authentification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à haute concurrence, disposant de solides capacités d'ingénierie et de capacités de mise en œuvre de solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement de l'identité - DID + TEE
Grâce à un plugin dédié, chaque agent AI obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement de boîte noire, les données critiques et les processus de calcul sont complètement masqués, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails internes du fonctionnement, construisant ainsi une barrière solide pour la sécurité des informations des agents AI.
Pour les agents qui ont été générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation intégré de la chaîne pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage toujours à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, en s'efforçant de créer un système de certification d'identité professionnel et fiable.
L'équipe Trusta a d'abord construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil utilisateur sur la chaîne selon cinq dimensions, à savoir : montant d'interaction (Monétaire), engagement (Engagement), diversité (Diversité), identité (Identité) et âge (Âge).
Le score MEDIA est un système d'évaluation de la valeur utilisateur en ligne équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs grandes chaînes publiques comme un critère de référence important pour la sélection des candidats à l'airdrop. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les projets à identifier avec précision des utilisateurs à forte valeur ajoutée, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa large reconnaissance dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score dans le scénario des agents IA, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de "capacité" à "valeur" à travers cinq dimensions. MEDIA met l'accent sur l'évaluation de la participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur le professionnalisme et la stabilité des agents AI dans des domaines spécifiques, reflétant une transition de la largeur à la profondeur, mieux adaptée aux besoins des agents AI.
Ce système est stratifié, avec une structure claire, capable de refléter de manière exhaustive la qualité intégrée et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les avantages et inconvénients abstraits en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de partenariats avec des réseaux d'agents AI renommés tels que Virtual, Elisa OS et Swarm, montrant son énorme potentiel d'application dans la gestion des identités des agents AI et la construction de systèmes de réputation, et devient progressivement le moteur central de la promotion de l'infrastructure AI fiable.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un système d'IA véritablement résilient et fiable, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la vérification continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés, afin de déterminer s'ils sont contrôlés illégalement, attaqués, ou soumis à des interventions humaines non autorisées. Le système identifie les écarts potentiels dans le fonctionnement des agents par le biais d'analyses comportementales et d'apprentissage automatique, garantissant que chaque action de l'agent reste dans les limites des politiques et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation du comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque processus d'interaction, garantissant que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée à chaque agent AI sur la chaîne (DID), et évalue et indexe sa fiabilité en fonction des données de comportement sur la chaîne, construisant ainsi un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et sélectionner efficacement des agents de qualité, améliorant ainsi l'expérience utilisateur. Actuellement, Trusta a terminé la collecte et l'identification de tous les agents AI sur le réseau, et leur a délivré des identifiants décentralisés, établissant une plateforme d'indexation consolidée unifiée AgentGo, promouvant davantage le développement sain de l'écosystème des agents intelligents.
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la note de réputation d'un agent AI, afin de déterminer s'il est fiable.
2.Agent IA appelle automatiquement l'index et vérifie :
Les IA peuvent accéder directement à l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et de l'échange d'informations.
L'agent AI DID n'est plus seulement une "identité", mais constitue également le soutien sous-jacent à des fonctions essentielles telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure de base indispensable au développement de l'écosystème natif de l'IA. Avec la construction de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une collaboration efficace et une interconnexion des fonctions entre les agents AI.
Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, ce qui contribuera à construire un écosystème d'agents AI plus efficace, avec une base de confiance et des capacités de collaboration, permettant le partage des ressources, la réutilisation des compétences et la valorisation continue entre les agents.
AgentGo, en tant que première infrastructure d'identité fiable destinée aux agents AI, fournit un soutien central indispensable à la construction d'un écosystème intelligent hautement sécurisé et collaboratif.
3.2.2 TrustGo
TrustGo est un outil de gestion d'identité sur la chaîne développé par Trusta, qui fournit des informations basées sur cette interaction, l'"âge" du portefeuille, le volume des transactions et le montant des transactions.