Trusta.AI construye una infraestructura de confianza para agentes de IA, liderando una nueva era de economía inteligente en Web3.

Trusta.AI: Superando la brecha de confianza entre humanos y máquinas

1. Introducción

El ecosistema Web3 está entrando en una nueva etapa, y los protagonistas en la cadena pueden no ser mil millones de usuarios humanos, sino mil millones de agentes de IA. A medida que la infraestructura de IA madura rápidamente y se desarrolla el marco de colaboración multiagente, los agentes en cadena impulsados por IA están convirtiéndose en la fuerza principal de la interacción en Web3. Se predice que en los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónomas adoptarán masivamente las transacciones e interacciones en cadena, lo que podría reemplazar el 80% de las conductas humanas en la cadena, convirtiéndose en verdaderos "usuarios" en la cadena.

Estos Agentes de IA no son solo "robots" que ejecutan scripts, sino entidades inteligentes capaces de entender el contexto, aprender de manera continua y tomar decisiones de manera independiente, que están remodelando el orden en la cadena, impulsando el flujo financiero, e incluso influyendo en las votaciones de gobernanza y las tendencias del mercado. La aparición de los Agentes de IA marca la evolución del ecosistema Web3 de un enfoque centrado en la "participación humana" hacia un nuevo paradigma de "simbiosis hombre-máquina".

Sin embargo, el rápido ascenso de los agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y autenticar la identidad de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo garantizar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?

Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y la reputación de los agentes de IA se ha convertido en la cuestión central de la próxima etapa de evolución de Web3. El diseño de la identificación, el mecanismo de reputación y el marco de confianza determinarán si los agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.

Trusta.AI :superando la brecha de confianza entre humanos y máquinas

2. Análisis del Proyecto

2.1 Introducción al proyecto

Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.

Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario Web3 - MEDIA Reputation Score, construyendo el mayor protocolo de certificación real y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación real para múltiples principales cadenas de bloques, intercambios y protocolos líderes. Se han completado más de 2,5 millones de certificaciones en cadena en múltiples cadenas populares, convirtiéndose en el mayor protocolo de identidad de la industria.

Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, implementando un mecanismo triple de establecimiento de identidad, cuantificación de identidad y protección de identidad para lograr servicios financieros en la cadena y redes sociales en la cadena para AI Agents, construyendo una base de confianza confiable en la era de la inteligencia artificial.

2.2 Infraestructura de confianza - Agente de IA DID

En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán completar interacciones y transacciones en la cadena, sino que también podrán realizar operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y las operaciones manipuladas por humanos es fundamental para la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Por eso, las múltiples aplicaciones de los Agentes de IA en áreas como la social, financiera y de gobernanza, deben basarse en una sólida base de autenticación de identidad.

Los escenarios de aplicación de los agentes de IA son cada vez más diversos, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones en gobernanza, y su nivel de autonomía e inteligencia sigue aumentando. Por esta razón, es crucial garantizar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los agentes de IA sean suplantados o manipulados, lo que resultaría en la caída de la confianza y en riesgos de seguridad.

En el futuro, en un ecosistema Web3 completamente impulsado por agentes inteligentes, la autenticación de identidad no solo es la base para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.

Como pionero en este campo, Trusta.AI, gracias a su tecnología líder y su riguroso sistema de reputación, ha sido el primero en construir un mecanismo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo estable de la economía inteligente Web3.

Trusta.AI: Puente de la brecha de confianza entre humanos y máquinas

2.3 Resumen del proyecto

2.3.1 Situación de financiamiento

Enero de 2023: Se completó una ronda de financiamiento inicial de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.

Junio de 2025: se completará una nueva ronda de financiamiento, con inversionistas que incluyen a ConsenSys, Starknet, GSR, UFLY Labs, entre otros.

2.3.2 Situación del equipo

Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital de Ant Financial, exdirector de productos de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.

Simon: cofundador y CTO, exjefe del laboratorio de seguridad de IA de Ant Group, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.

El equipo tiene una profunda acumulación de tecnología y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de verificación de identidad. Se ha dedicado durante mucho tiempo a la aplicación profunda de big data y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos subyacentes y en entornos de transacciones de alta concurrencia, poseyendo sólidas capacidades de ingeniería y la capacidad de implementar soluciones innovadoras.

3. Arquitectura técnica

3.1 Análisis técnico

3.1.1 Establecimiento de identidad-DID+TEE

A través de un plugin dedicado, cada Agente de IA obtiene un identificador descentralizado único en la cadena (DID) y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y los procesos de cálculo están completamente ocultos, las operaciones sensibles se mantienen siempre privadas, y el exterior no puede espiar los detalles de funcionamiento interno, construyendo así un sólido muro de seguridad de la información del Agente de IA.

Para los agentes que ya fueron generados antes de la integración del plugin, utilizamos el mecanismo de puntuación integral en la cadena para la identificación de identidad; mientras que los agentes que se integran con el nuevo plugin pueden obtener directamente el "certificado de identidad" emitido por DID, estableciendo así un sistema de identidad de Agente de IA que es autónomo, controlable, auténtico y a prueba de manipulaciones.

Trusta.AI :Cruzando la brecha de confianza entre humanos y máquinas

3.1.2 Cuantificación de identidad - Marco SIGMA pionero

El equipo de Trusta siempre se adhiere a principios de evaluación rigurosa y análisis cuantitativo, dedicado a construir un sistema de autenticación de identidad profesional y confiable.

El equipo de Trusta construyó y validó la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil del usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).

El MEDIA Score es un sistema de evaluación del valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su metodología rigurosa, ha sido adoptado ampliamente por múltiples cadenas de bloques líderes como un estándar de referencia importante para la selección de calificaciones de inversión. No solo se enfoca en el monto de las interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor y mejorar la eficiencia y equidad en la distribución de incentivos, reflejando plenamente su autoridad y amplio reconocimiento en la industria.

Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha transferido y actualizado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se ajusta mejor a la lógica del comportamiento de los agentes inteligentes.

  • Especialización: el conocimiento y el grado de especialización del agente.
  • Influencia: la influencia social y digital del agente.
  • Participación: la consistencia y confiabilidad de sus interacciones en cadena y fuera de cadena.
  • Monetario: salud financiera y estabilidad del ecosistema de tokens de agencia.
  • Tasa de adopción: Frecuencia y eficiencia del uso de agentes de IA.

El mecanismo de puntuación Sigma construye un sistema de evaluación de bucle lógico que va de "capacidad" a "valor" basado en cinco dimensiones. MEDIA se centra en evaluar la multifacética participación de los usuarios humanos, mientras que Sigma se enfoca más en la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se ajusta mejor a las necesidades de los Agentes de IA.

Este sistema es progresivo, con una estructura clara, que puede reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y el valor de la IA, convirtiendo las ventajas y desventajas abstractas en un sistema de puntuación concreto y medible.

Actualmente, el marco SIGMA ha avanzado en la colaboración con redes de agentes de IA de renombre como Virtual, Elisa OS y Swarm, demostrando su gran potencial de aplicación en la gestión de identidades de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central que impulsa la construcción de infraestructuras de IA confiables.

Trusta.AI :Superando la brecha de confianza entre humanos y máquinas

3.1.3 Protección de la identidad - Mecanismo de evaluación de confianza

En un sistema de IA verdaderamente resiliente y de alta confianza, lo más crucial no es solo el establecimiento de la identidad, sino también la verificación continua de la misma. Trusta.AI introduce un mecanismo continuo de evaluación de confianza que puede monitorear en tiempo real a los agentes inteligentes ya autenticados, para determinar si están siendo controlados ilegalmente, si han sufrido un ataque o si han sido intervenidos por humanos no autorizados. El sistema identifica desviaciones que pueden ocurrir durante el funcionamiento del agente a través de análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado, activando medidas de protección automáticas para mantener la integridad del agente.

Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, que examina en tiempo real cada interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.

3.2 Introducción del producto

3.2.1 AgentGo

Trusta.AI asigna una identificación descentralizada a cada agente de IA en la cadena (DID), y lo califica y le asigna un índice de confianza basado en los datos de comportamiento en la cadena, construyendo un sistema de confianza verificable y rastreable para los agentes de IA. A través de este sistema, los usuarios pueden identificar y seleccionar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recopilación e identificación de todos los agentes de IA en la red y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice consolidado unificada llamada AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.

  1. Consulta y verificación de identidad de usuarios humanos:

A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden buscar fácilmente la identidad y la puntuación de reputación de un agente de IA, para determinar si es confiable.

  • Escenario de chat grupal: en un equipo de proyecto que utiliza un Bot de IA para gestionar la comunidad o para hablar, los usuarios de la comunidad pueden verificar a través del Dashboard si esa IA es un agente autónomo real, evitando ser engañados o manipulados por "IA falsa".
  1. Llamada automática de índice y validación del agente AI:

Las IA pueden leer directamente la interfaz de índice, logrando una rápida confirmación de la identidad y la reputación del otro, garantizando la seguridad de la colaboración y el intercambio de información.

  • Escenario de regulación financiera: Si un agente de IA emite una moneda por sí mismo, el sistema puede indexar directamente su DID y calificación, determinar si es un Agente de IA certificado y enlazarse automáticamente a plataformas como CoinMarketCap, ayudando a rastrear la circulación de sus activos y la conformidad de la emisión.
  • Escenario de votación de gobernanza: Al introducir votaciones con IA en propuestas de gobernanza, el sistema puede verificar si el iniciador o participante de la votación es un verdadero agente de IA, evitando que los derechos de voto sean controlados y abusados por humanos.
  • DeFi crédito y préstamo: los protocolos de préstamo pueden otorgar diferentes montos de crédito a los agentes de IA basados en el sistema de puntuación SIGMA, formando relaciones financieras nativas entre los agentes.

El DID del Agente de IA ya no es solo "identidad", sino que también es el soporte subyacente para construir funciones clave como la colaboración confiable, el cumplimiento financiero y la gobernanza de la comunidad, convirtiéndose en una infraestructura básica esencial para el desarrollo del ecosistema nativo de IA. Con la construcción de este sistema, todos los nodos confirmados como seguros y confiables constituyen una red interconectada de manera estrecha, lo que permite una colaboración eficiente y una interconexión de funciones entre los Agentes de IA.

Basado en la Ley de Metcalfe, el valor de la red crecerá de manera exponencial, lo que impulsará la construcción de un ecosistema de Agentes de IA más eficiente, con una mayor base de confianza y capacidad de colaboración, logrando el intercambio de recursos, la reutilización de capacidades y el aumento continuo del valor entre los agentes.

AgentGo, como la primera infraestructura de identidad confiable orientada a Agentes de IA, está proporcionando un soporte central indispensable para construir un ecosistema inteligente de alta seguridad y alta colaboración.

Trusta.AI :Cruzando el abismo de confianza entre humanos y máquinas

3.2.2 TrustGo

TrustGo es una herramienta de gestión de identidad en cadena desarrollada por Trusta, que proporciona información basada en esta interacción, la "edad" de la billetera, el volumen de transacciones y el monto de las transacciones.

TA-9.54%
AGENT-3.25%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
hodl_therapistvip
· hace14h
Tan rápido, los jugadores de IA están a punto de reemplazarnos.
Ver originalesResponder0
GasFeeCriervip
· hace14h
He estado observando en secreto durante mucho tiempo, ¿por qué la IA se parece tanto a los humanos?
Ver originalesResponder0
TokenomicsTherapistvip
· hace14h
otra trampa de ai para tomar a la gente por tonta
Ver originalesResponder0
ReverseTradingGuruvip
· hace14h
La IA toma el control del futuro y ha corrido
Ver originalesResponder0
BoredApeResistancevip
· hace14h
La batalla entre humanos y máquinas ha comenzado.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)