تدخل بيئة Web3 مرحلة جديدة، حيث قد لا يكون الأبطال الرئيسيون في السلسلة هم مليار مستخدم بشري، بل مليار وكيل ذكاء اصطناعي. مع النضوج السريع للبنية التحتية للذكاء الاصطناعي، وتطور إطار التعاون بين العوامل المتعددة، أصبح الوكلاء المدفوعون بالذكاء الاصطناعي القوة الرئيسية في تفاعلات Web3. ومن المتوقع أنه في السنوات 2-3 المقبلة، ستتجه هذه الوكلاء الذكائية المستقلة اتخاذ القرارات إلى تبني المعاملات والتفاعلات على السلسلة على نطاق واسع، مما قد يحل محل 80% من سلوكيات البشر على السلسلة، ليصبحوا "المستخدمين" الحقيقيين على السلسلة.
هذه الوكلاء الذكيين ليسوا مجرد "روبوتات" تنفذ البرامج النصية، بل هم كائنات قادرة على فهم السياق، والتعلم المستمر، واتخاذ القرارات المستقلة، مما يعيد تشكيل النظام على السلسلة، ويعزز السيولة المالية، وحتى يؤثر على تصويت الحكم واتجاهات السوق. إن ظهور الوكلاء الذكيين يشير إلى أن النظام البيئي Web3، الذي كان مركزه "مشاركة البشر"، يتطور الآن إلى نموذج جديد من "التعايش بين الإنسان والآلة".
ومع ذلك، فإن الارتفاع السريع لوكلاء الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء وتصديقها؟ كيف يمكن تقييم مصداقية سلوكهم؟ في الشبكات اللامركزية التي لا تتطلب إذن، كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم في الهجمات؟
لذلك، أصبح إنشاء بنية تحتية على السلسلة يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو الموضوع الرئيسي في المرحلة التالية من تطور الويب 3. ستحدد تصميم آليات التعرف على الهوية، وآليات السمعة، وإطار الثقة ما إذا كان يمكن لوكيل الذكاء الاصطناعي أن يحقق بالفعل تعاونًا سلسًا مع البشر والمنصات، وأن يلعب دورًا مستدامًا في النظام البيئي المستقبلي.
2. تحليل المشروع
2.1 مقدمة المشروع
تسعى Trusta.AI لبناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.
أطلقت Trusta.AI أول نظام لتقييم قيمة مستخدم Web3 - تقييم سمعة MEDIA، وقد أنشأت أكبر بروتوكول للمصادقة الحقيقية والسمعة على السلسلة في Web3. تقدم تحليل البيانات على السلسلة وخدمات المصادقة الحقيقية للعديد من سلاسل الكتل الرئيسية، والبورصات، وبروتوكولات القمة. تم الانتهاء من أكثر من 2.5 مليون مصادقة على السلسلة على العديد من سلاسل الكتل الرئيسية، مما يجعلها أكبر بروتوكول هوية في الصناعة.
تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، من أجل تحقيق خدمات مالية على السلسلة لوكيل الذكاء الاصطناعي وتحقيق التواصل الاجتماعي على السلسلة، وقد أنشأت آلية ثلاثية للهوية: إنشاء الهوية، وتQuantification الهوية، وحماية الهوية، مما يبني أساسًا موثوقًا للثقة في عصر الذكاء الاصطناعي.
2.2 بنية الثقة - وكيل الذكاء الاصطناعي (DID)
في المستقبل من بيئة Web3، سيلعب وكيل الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم ليس فقط إتمام التفاعلات والمعاملات على السلسلة، بل أيضًا إجراء عمليات معقدة خارج السلسلة. ومع ذلك، فإن التمييز بين وكيل الذكاء الاصطناعي الحقيقي والتدخل البشري في العمليات يتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة لمصادقة الهوية، فإن هذه الوكلاء ستكون عرضة للتلاعب أو الاحتيال أو الإساءة. وهذا هو السبب في أن الخصائص المتعددة لوكلاء الذكاء الاصطناعي في المجالات الاجتماعية والمالية والإدارية يجب أن تستند إلى أساس قوي من مصادقة الهوية.
تزداد تطبيقات وكيل الذكاء الاصطناعي تنوعًا، حيث تغطي مجالات متعددة مثل التفاعل الاجتماعي، وإدارة المالية، واتخاذ القرارات الحكومية، ويستمر مستوى استقلاليتها وذكائها في التحسن. ولذلك، فإن ضمان أن يمتلك كل وكيل هوية فريدة وموثوقة (DID) يعد أمرًا بالغ الأهمية. إن عدم وجود تحقق فعال من الهوية يمكن أن يؤدي إلى انتحال شخصية وكيل الذكاء الاصطناعي أو التحكم فيه، مما يؤدي إلى انهيار الثقة وزيادة المخاطر الأمنية.
في نظام Web3 البيئي الذي يقوده الذكاء الاصطناعي بالكامل في المستقبل، لم يعد التحقق من الهوية مجرد حجر الزاوية لضمان الأمان، بل أصبح أيضًا خط الدفاع الضروري للحفاظ على تشغيل النظام البيئي بصحة.
بصفتها رائدة في هذا المجال، قامت Trusta.AI بفضل قوتها التكنولوجية الرائدة ونظامها الصارم للسمعة، بإنشاء آلية مصادقة DID لوكلاء الذكاء الاصطناعي بشكل كامل، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكلاء الذكيين، ويعمل على الوقاية الفعالة من المخاطر المحتملة، ويساهم في التنمية المستدامة للاقتصاد الذكي Web3.
2.3 نظرة عامة على المشروع
2.3.1 حالة التمويل
يناير 2023: تم الانتهاء من جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، وشارك في الجولة مستثمرون آخرون مثل HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding.
يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها
2.3.2 حالة الفريق
بيت تشن: المؤسس المشارك والمدير التنفيذي، نائب رئيس مجموعة أنتي الرقمية السابقة، رئيس المنتجات في أنتي للأمن التكنولوجي، المدير العام السابق لمنصة زولوز العالمية للهوية الرقمية.
سيمون: المؤسس المشارك والمدير الفني، رئيس مختبر أمان الذكاء الاصطناعي السابق في مجموعة أنتي، لديه خبرة تصل إلى خمس عشرة سنة في تطبيق تكنولوجيا الذكاء الاصطناعي في الأمان وإدارة المخاطر.
تمتلك الفريق خبرة تقنية عميقة وتجربة عملية في مجالات الذكاء الاصطناعي وإدارة المخاطر الأمنية، وبنية أنظمة الدفع وآليات التحقق من الهوية، حيث يكرس جهوده منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات المعاملات عالية التزامن، مما يتيح له القدرة على تنفيذ حلول مبتكرة بمهارة.
3. الهيكل التكنولوجي
3.1 تحليل تقني
3.1.1 بناء الهوية - DID + TEE
من خلال ملحقات مخصصة، يحصل كل وكيل ذكاء اصطناعي على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة الصندوق الأسود، تكون البيانات الرئيسية وعملية الحساب مخفية تمامًا، وتظل العمليات الحساسة خاصة دائمًا، ولا يمكن للجهات الخارجية الاطلاع على تفاصيل التشغيل الداخلية، مما يشكل حاجزًا قويًا لأمان معلومات وكيل الذكاء الاصطناعي.
بالنسبة للوسطاء الذين تم إنشاؤهم قبل إدخال المكون الإضافي، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ أما الوسطاء الجدد الذين تم إدخالهم عبر المكون الإضافي، فيمكنهم الحصول مباشرة على "شهادة الهوية" الصادرة عن DID، مما يساعد في إنشاء نظام هوية لوكيل الذكاء الاصطناعي يتمتع بالتحكم الذاتي والموثوقية وعدم القابلية للتلاعب.
تلتزم فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتهدف إلى إنشاء نظام موثوق للمصادقة على الهوية.
قام فريق Trusta في البداية ببناء والتحقق من صحة نموذج MEDIA Score في سيناريو "إثبات الإنسان". يقوم هذا النموذج بتكميم صورة المستخدمين على السلسلة من خمسة أبعاد، وهي: المبلغ التفاعلي (Monetary)، مستوى المشاركة (Engagement)، التنوع (Diversity)، الهوية (Identity) والعمر (Age).
تعتبر درجة MEDIA نظامًا عادلًا وموضوعيًا وقابلًا للقياس لتقييم قيمة المستخدمين على السلسلة. بفضل أبعاد التقييم الشاملة والأسلوب الدقيق، تم اعتمادها على نطاق واسع من قبل عدة سلاسل بلوك تشين رائدة، كمعيار مرجعي مهم لتصفية مؤهلات الاستثمار. إنها لا تركز فقط على مقدار التفاعل، بل تشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، الخصائص الهوية، وعمر الحساب، مما يساعد المشاريع على تحديد المستخدمين ذوي القيمة العالية بدقة، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس سلطتها واعترافها الواسع في الصناعة.
بناءً على النجاح في بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وترقية تجربة MEDIA Score إلى سيناريو وكيل الذكاء الاصطناعي، وأنشأت نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.
التخصصيةSpecification: المعرفة المهنية ودرجة التخصص للوكيل.
التأثير: التأثير الاجتماعي والرقمي للوكيل.
المشاركة: الاتساق والموثوقية في التفاعلات على السلسلة وخارجها.
النقدية: الصحة المالية والاستقرار للنظام البيئي للرموز الوكيلة.
معدل الاعتماد: التكرار والكفاءة في استخدام الوكلاء الذكيين.
تقوم آلية تقييم سيغما على بناء نظام تقييم منطقي من "القدرة" إلى "القيمة" من خلال خمسة أبعاد. يركز MEDIA على تقييم المشاركة المتعددة الأبعاد للمستخدمين البشر، بينما تركز سيغما بشكل أكبر على احترافية واستقرار الوكلاء الذكيين في مجالات معينة، مما يعكس التحول من العرض إلى العمق، ويتماشى بشكل أفضل مع احتياجات الوكيل الذكي.
هذا النظام يتقدم خطوة بخطوة، وهيكلها واضح،能够全面反映 AI Agent的综合素质与生态价值,从而实现对 AI性能和价值的量化评估,将抽象的优劣转化为具体、可衡量的评分体系。
حاليًا، تم تعزيز إطار SIGMA من خلال التعاون مع شبكات وكلاء الذكاء الاصطناعي المعروفة مثل Virtual وElisa OS وSwarm، مما يظهر إمكانيته الكبيرة في إدارة هوية الوكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، وهو يصبح تدريجيًا المحرك الأساسي لدفع بناء البنية التحتية للذكاء الاصطناعي الموثوق.
3.1.3 حماية الهوية - آلية تقييم الثقة
في نظام ذكاء اصطناعي عالي المرونة وموثوق حقًا، لا تكمن الأهمية فقط في إقامة الهوية، بل في التحقق المستمر من الهوية. تقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، القادرة على مراقبة الوكلاء الذكيين المعتمدين في الوقت الفعلي، لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل بشري غير مصرح به. يقوم النظام من خلال تحليل السلوك والتعلم الآلي بتحديد الانحرافات المحتملة التي قد تحدث خلال تشغيل الوكلاء، لضمان بقاء كل سلوك للوكيل ضمن السياسات والإطارات المحددة. تضمن هذه الطريقة النشطة اكتشاف أي انحراف عن السلوك المتوقع على الفور، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.
أنشأت Trusta.AI مجموعة من آليات الحماية المتاحة على مدار الساعة، حيث تراقب كل عملية تفاعل في الوقت الفعلي، لضمان أن جميع العمليات تتوافق مع معايير النظام والتوقعات المحددة.
3.2 مقدمة المنتج
3.2.1 AgentGo
تقوم Trusta.AI بتخصيص هوية لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمه وتصنيفه بناءً على بيانات السلوك على السلسلة، مما يبني نظام ثقة قابل للتحقق وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكالات الذكاء الاصطناعي الممتازة وتصفيتها، مما يعزز تجربة الاستخدام. في الوقت الحالي، أكملت Trusta جمع وتحديد وكلاء الذكاء الاصطناعي عبر الشبكة، ومنحتهم معرّفات لامركزية، وأقامت منصة تجميع موحدة AgentGo، مما يعزز التنمية الصحية لنظام الوكلاء الذكيين.
1.استعلام المستخدمين البشريين والتحقق من الهوية:
من خلال لوحة المعلومات التي تقدمها Trusta.AI، يمكن للمستخدمين البشر بسهولة استرجاع هوية ودرجة سمعة وكيل الذكاء الاصطناعي، لتحديد ما إذا كان موثوقًا.
مشهد الدردشة الاجتماعية: في فريق مشروع يستخدم بوت الذكاء الاصطناعي لإدارة المجتمع أو للتحدث، يمكن لمستخدمي المجتمع التحقق من خلال لوحة التحكم ما إذا كان هذا الذكاء الاصطناعي هو وكيل مستقل حقيقي، لتجنب التوجيه أو التلاعب من "الذكاء الاصطناعي المزيف".
يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة، مما يحقق التأكيد السريع على هوية الآخر وموثوقيته، وضمان أمان التعاون وتبادل المعلومات.
مشهد الرقابة المالية: إذا قام وكيل AI بإصدار عملة بشكل مستقل، يمكن للنظام مباشرةً فهرسة DID الخاص به وتقييمه، والحكم على ما إذا كان وكيل AI معتمدًا، وربطه تلقائيًا بمنصات مثل CoinMarketCap، لمساعدته في تتبع تدفق أصوله وامتثال الإصدار.
مشهد تصويت الحوكمة: عند تقديم اقتراحات الحوكمة مع إدخال تصويت الذكاء الاصطناعي، يمكن للنظام التحقق مما إذا كان من قام بإطلاق أو المشاركة في التصويت هو وكيل ذكاء اصطناعي حقيقي، لتجنب السيطرة والإساءة من قبل البشر على حقوق التصويت.
إقراض الائتمان DeFi: يمكن أن تمنح بروتوكولات الإقراض قروض ائتمانية مختلفة لوكيل الذكاء الاصطناعي استنادًا إلى نظام تقييم SIGMA، مما يشكل علاقات مالية أصلية بين الوكلاء.
لم تعد هوية AI Agent DID مجرد "هوية"، بل أصبحت دعماً أساسياً لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمعات، وغيرها من الوظائف الأساسية، مما يجعلها بنية تحتية أساسية لتطوير النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكلت شبكة مترابطة بإحكام من جميع النقاط المؤكدة الآمنة والموثوقة، مما حقق التعاون الفعال والتواصل الوظيفي بين وكلاء الذكاء الاصطناعي.
استنادًا إلى قانون ميتكالف، ستشهد قيمة الشبكة نموًا أسيًا، مما سيدفع نحو بناء نظام بيئي لوكلاء الذكاء الاصطناعي أكثر كفاءة وأساسًا موثوقًا وقدرة على التعاون، مما يتيح تبادل الموارد وإعادة استخدام القدرات وزيادة القيمة بشكل مستمر بين الوكلاء.
تعتبر AgentGo كأول بنية تحتية موثوقة للهوية موجهة لوكلاء الذكاء الاصطناعي، حيث تقدم دعمًا أساسيًا لا غنى عنه لبناء نظام ذكي عالي الأمان وعالي التعاون.
3.2.2 TrustGo
TrustGo هي أداة لإدارة الهوية على السلسلة تم تطويرها بواسطة Trusta، حيث تقدم معلومات بناءً على التفاعل الحالي، "عمر" المحفظة، وحجم المعاملات وقيمتها.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
5
مشاركة
تعليق
0/400
hodl_therapist
· منذ 20 س
هكذا بسرعة سيحل اللاعبون الذكاء الاصطناعي محلنا
شاهد النسخة الأصليةرد0
GasFeeCrier
· منذ 21 س
لقد كنت أراقب في الخفاء لفترة طويلة، كيف يبدو الذكاء الاصطناعي وكأنه مثل البشر.
تقوم Trusta.AI ببناء بنية تحتية للثقة لوكلاء الذكاء الاصطناعي لقيادة عصر جديد من الاقتصاد الذكي في الويب 3.
Trusta.AI: جسر الثقة في عصر الإنسان والآلة
1. المقدمة
تدخل بيئة Web3 مرحلة جديدة، حيث قد لا يكون الأبطال الرئيسيون في السلسلة هم مليار مستخدم بشري، بل مليار وكيل ذكاء اصطناعي. مع النضوج السريع للبنية التحتية للذكاء الاصطناعي، وتطور إطار التعاون بين العوامل المتعددة، أصبح الوكلاء المدفوعون بالذكاء الاصطناعي القوة الرئيسية في تفاعلات Web3. ومن المتوقع أنه في السنوات 2-3 المقبلة، ستتجه هذه الوكلاء الذكائية المستقلة اتخاذ القرارات إلى تبني المعاملات والتفاعلات على السلسلة على نطاق واسع، مما قد يحل محل 80% من سلوكيات البشر على السلسلة، ليصبحوا "المستخدمين" الحقيقيين على السلسلة.
هذه الوكلاء الذكيين ليسوا مجرد "روبوتات" تنفذ البرامج النصية، بل هم كائنات قادرة على فهم السياق، والتعلم المستمر، واتخاذ القرارات المستقلة، مما يعيد تشكيل النظام على السلسلة، ويعزز السيولة المالية، وحتى يؤثر على تصويت الحكم واتجاهات السوق. إن ظهور الوكلاء الذكيين يشير إلى أن النظام البيئي Web3، الذي كان مركزه "مشاركة البشر"، يتطور الآن إلى نموذج جديد من "التعايش بين الإنسان والآلة".
ومع ذلك، فإن الارتفاع السريع لوكلاء الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء وتصديقها؟ كيف يمكن تقييم مصداقية سلوكهم؟ في الشبكات اللامركزية التي لا تتطلب إذن، كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم في الهجمات؟
لذلك، أصبح إنشاء بنية تحتية على السلسلة يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو الموضوع الرئيسي في المرحلة التالية من تطور الويب 3. ستحدد تصميم آليات التعرف على الهوية، وآليات السمعة، وإطار الثقة ما إذا كان يمكن لوكيل الذكاء الاصطناعي أن يحقق بالفعل تعاونًا سلسًا مع البشر والمنصات، وأن يلعب دورًا مستدامًا في النظام البيئي المستقبلي.
2. تحليل المشروع
2.1 مقدمة المشروع
تسعى Trusta.AI لبناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.
أطلقت Trusta.AI أول نظام لتقييم قيمة مستخدم Web3 - تقييم سمعة MEDIA، وقد أنشأت أكبر بروتوكول للمصادقة الحقيقية والسمعة على السلسلة في Web3. تقدم تحليل البيانات على السلسلة وخدمات المصادقة الحقيقية للعديد من سلاسل الكتل الرئيسية، والبورصات، وبروتوكولات القمة. تم الانتهاء من أكثر من 2.5 مليون مصادقة على السلسلة على العديد من سلاسل الكتل الرئيسية، مما يجعلها أكبر بروتوكول هوية في الصناعة.
تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، من أجل تحقيق خدمات مالية على السلسلة لوكيل الذكاء الاصطناعي وتحقيق التواصل الاجتماعي على السلسلة، وقد أنشأت آلية ثلاثية للهوية: إنشاء الهوية، وتQuantification الهوية، وحماية الهوية، مما يبني أساسًا موثوقًا للثقة في عصر الذكاء الاصطناعي.
2.2 بنية الثقة - وكيل الذكاء الاصطناعي (DID)
في المستقبل من بيئة Web3، سيلعب وكيل الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم ليس فقط إتمام التفاعلات والمعاملات على السلسلة، بل أيضًا إجراء عمليات معقدة خارج السلسلة. ومع ذلك، فإن التمييز بين وكيل الذكاء الاصطناعي الحقيقي والتدخل البشري في العمليات يتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة لمصادقة الهوية، فإن هذه الوكلاء ستكون عرضة للتلاعب أو الاحتيال أو الإساءة. وهذا هو السبب في أن الخصائص المتعددة لوكلاء الذكاء الاصطناعي في المجالات الاجتماعية والمالية والإدارية يجب أن تستند إلى أساس قوي من مصادقة الهوية.
تزداد تطبيقات وكيل الذكاء الاصطناعي تنوعًا، حيث تغطي مجالات متعددة مثل التفاعل الاجتماعي، وإدارة المالية، واتخاذ القرارات الحكومية، ويستمر مستوى استقلاليتها وذكائها في التحسن. ولذلك، فإن ضمان أن يمتلك كل وكيل هوية فريدة وموثوقة (DID) يعد أمرًا بالغ الأهمية. إن عدم وجود تحقق فعال من الهوية يمكن أن يؤدي إلى انتحال شخصية وكيل الذكاء الاصطناعي أو التحكم فيه، مما يؤدي إلى انهيار الثقة وزيادة المخاطر الأمنية.
في نظام Web3 البيئي الذي يقوده الذكاء الاصطناعي بالكامل في المستقبل، لم يعد التحقق من الهوية مجرد حجر الزاوية لضمان الأمان، بل أصبح أيضًا خط الدفاع الضروري للحفاظ على تشغيل النظام البيئي بصحة.
بصفتها رائدة في هذا المجال، قامت Trusta.AI بفضل قوتها التكنولوجية الرائدة ونظامها الصارم للسمعة، بإنشاء آلية مصادقة DID لوكلاء الذكاء الاصطناعي بشكل كامل، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكلاء الذكيين، ويعمل على الوقاية الفعالة من المخاطر المحتملة، ويساهم في التنمية المستدامة للاقتصاد الذكي Web3.
2.3 نظرة عامة على المشروع
2.3.1 حالة التمويل
يناير 2023: تم الانتهاء من جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، وشارك في الجولة مستثمرون آخرون مثل HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding.
يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها
2.3.2 حالة الفريق
بيت تشن: المؤسس المشارك والمدير التنفيذي، نائب رئيس مجموعة أنتي الرقمية السابقة، رئيس المنتجات في أنتي للأمن التكنولوجي، المدير العام السابق لمنصة زولوز العالمية للهوية الرقمية.
سيمون: المؤسس المشارك والمدير الفني، رئيس مختبر أمان الذكاء الاصطناعي السابق في مجموعة أنتي، لديه خبرة تصل إلى خمس عشرة سنة في تطبيق تكنولوجيا الذكاء الاصطناعي في الأمان وإدارة المخاطر.
تمتلك الفريق خبرة تقنية عميقة وتجربة عملية في مجالات الذكاء الاصطناعي وإدارة المخاطر الأمنية، وبنية أنظمة الدفع وآليات التحقق من الهوية، حيث يكرس جهوده منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات المعاملات عالية التزامن، مما يتيح له القدرة على تنفيذ حلول مبتكرة بمهارة.
3. الهيكل التكنولوجي
3.1 تحليل تقني
3.1.1 بناء الهوية - DID + TEE
من خلال ملحقات مخصصة، يحصل كل وكيل ذكاء اصطناعي على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة الصندوق الأسود، تكون البيانات الرئيسية وعملية الحساب مخفية تمامًا، وتظل العمليات الحساسة خاصة دائمًا، ولا يمكن للجهات الخارجية الاطلاع على تفاصيل التشغيل الداخلية، مما يشكل حاجزًا قويًا لأمان معلومات وكيل الذكاء الاصطناعي.
بالنسبة للوسطاء الذين تم إنشاؤهم قبل إدخال المكون الإضافي، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ أما الوسطاء الجدد الذين تم إدخالهم عبر المكون الإضافي، فيمكنهم الحصول مباشرة على "شهادة الهوية" الصادرة عن DID، مما يساعد في إنشاء نظام هوية لوكيل الذكاء الاصطناعي يتمتع بالتحكم الذاتي والموثوقية وعدم القابلية للتلاعب.
! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة
3.1.2 قياس الهوية - إطار SIGMA الرائد
تلتزم فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتهدف إلى إنشاء نظام موثوق للمصادقة على الهوية.
قام فريق Trusta في البداية ببناء والتحقق من صحة نموذج MEDIA Score في سيناريو "إثبات الإنسان". يقوم هذا النموذج بتكميم صورة المستخدمين على السلسلة من خمسة أبعاد، وهي: المبلغ التفاعلي (Monetary)، مستوى المشاركة (Engagement)، التنوع (Diversity)، الهوية (Identity) والعمر (Age).
تعتبر درجة MEDIA نظامًا عادلًا وموضوعيًا وقابلًا للقياس لتقييم قيمة المستخدمين على السلسلة. بفضل أبعاد التقييم الشاملة والأسلوب الدقيق، تم اعتمادها على نطاق واسع من قبل عدة سلاسل بلوك تشين رائدة، كمعيار مرجعي مهم لتصفية مؤهلات الاستثمار. إنها لا تركز فقط على مقدار التفاعل، بل تشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، الخصائص الهوية، وعمر الحساب، مما يساعد المشاريع على تحديد المستخدمين ذوي القيمة العالية بدقة، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس سلطتها واعترافها الواسع في الصناعة.
بناءً على النجاح في بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وترقية تجربة MEDIA Score إلى سيناريو وكيل الذكاء الاصطناعي، وأنشأت نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.
تقوم آلية تقييم سيغما على بناء نظام تقييم منطقي من "القدرة" إلى "القيمة" من خلال خمسة أبعاد. يركز MEDIA على تقييم المشاركة المتعددة الأبعاد للمستخدمين البشر، بينما تركز سيغما بشكل أكبر على احترافية واستقرار الوكلاء الذكيين في مجالات معينة، مما يعكس التحول من العرض إلى العمق، ويتماشى بشكل أفضل مع احتياجات الوكيل الذكي.
هذا النظام يتقدم خطوة بخطوة، وهيكلها واضح،能够全面反映 AI Agent的综合素质与生态价值,从而实现对 AI性能和价值的量化评估,将抽象的优劣转化为具体、可衡量的评分体系。
حاليًا، تم تعزيز إطار SIGMA من خلال التعاون مع شبكات وكلاء الذكاء الاصطناعي المعروفة مثل Virtual وElisa OS وSwarm، مما يظهر إمكانيته الكبيرة في إدارة هوية الوكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، وهو يصبح تدريجيًا المحرك الأساسي لدفع بناء البنية التحتية للذكاء الاصطناعي الموثوق.
3.1.3 حماية الهوية - آلية تقييم الثقة
في نظام ذكاء اصطناعي عالي المرونة وموثوق حقًا، لا تكمن الأهمية فقط في إقامة الهوية، بل في التحقق المستمر من الهوية. تقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، القادرة على مراقبة الوكلاء الذكيين المعتمدين في الوقت الفعلي، لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل بشري غير مصرح به. يقوم النظام من خلال تحليل السلوك والتعلم الآلي بتحديد الانحرافات المحتملة التي قد تحدث خلال تشغيل الوكلاء، لضمان بقاء كل سلوك للوكيل ضمن السياسات والإطارات المحددة. تضمن هذه الطريقة النشطة اكتشاف أي انحراف عن السلوك المتوقع على الفور، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.
أنشأت Trusta.AI مجموعة من آليات الحماية المتاحة على مدار الساعة، حيث تراقب كل عملية تفاعل في الوقت الفعلي، لضمان أن جميع العمليات تتوافق مع معايير النظام والتوقعات المحددة.
3.2 مقدمة المنتج
3.2.1 AgentGo
تقوم Trusta.AI بتخصيص هوية لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمه وتصنيفه بناءً على بيانات السلوك على السلسلة، مما يبني نظام ثقة قابل للتحقق وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكالات الذكاء الاصطناعي الممتازة وتصفيتها، مما يعزز تجربة الاستخدام. في الوقت الحالي، أكملت Trusta جمع وتحديد وكلاء الذكاء الاصطناعي عبر الشبكة، ومنحتهم معرّفات لامركزية، وأقامت منصة تجميع موحدة AgentGo، مما يعزز التنمية الصحية لنظام الوكلاء الذكيين.
1.استعلام المستخدمين البشريين والتحقق من الهوية:
من خلال لوحة المعلومات التي تقدمها Trusta.AI، يمكن للمستخدمين البشر بسهولة استرجاع هوية ودرجة سمعة وكيل الذكاء الاصطناعي، لتحديد ما إذا كان موثوقًا.
2.استدعاء الفهرس والتحقق التلقائي لوكلاء الذكاء الاصطناعي:
يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة، مما يحقق التأكيد السريع على هوية الآخر وموثوقيته، وضمان أمان التعاون وتبادل المعلومات.
لم تعد هوية AI Agent DID مجرد "هوية"، بل أصبحت دعماً أساسياً لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمعات، وغيرها من الوظائف الأساسية، مما يجعلها بنية تحتية أساسية لتطوير النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكلت شبكة مترابطة بإحكام من جميع النقاط المؤكدة الآمنة والموثوقة، مما حقق التعاون الفعال والتواصل الوظيفي بين وكلاء الذكاء الاصطناعي.
استنادًا إلى قانون ميتكالف، ستشهد قيمة الشبكة نموًا أسيًا، مما سيدفع نحو بناء نظام بيئي لوكلاء الذكاء الاصطناعي أكثر كفاءة وأساسًا موثوقًا وقدرة على التعاون، مما يتيح تبادل الموارد وإعادة استخدام القدرات وزيادة القيمة بشكل مستمر بين الوكلاء.
تعتبر AgentGo كأول بنية تحتية موثوقة للهوية موجهة لوكلاء الذكاء الاصطناعي، حيث تقدم دعمًا أساسيًا لا غنى عنه لبناء نظام ذكي عالي الأمان وعالي التعاون.
3.2.2 TrustGo
TrustGo هي أداة لإدارة الهوية على السلسلة تم تطويرها بواسطة Trusta، حيث تقدم معلومات بناءً على التفاعل الحالي، "عمر" المحفظة، وحجم المعاملات وقيمتها.