L'intégration de l'IA et du Web3 soulève de nouveaux défis en matière de sécurité, DeFAI devient le point focal
Récemment, la Semaine de la blockchain d'Istanbul s'est concentrée sur les tendances de fusion entre l'IA et le Web3, devenant une plateforme importante pour les discussions sur la sécurité du Web3 cette année. Lors de deux tables rondes, plusieurs experts du secteur ont mené des discussions approfondies sur l'état actuel de l'application des technologies de l'IA dans la DeFi et les défis de sécurité associés.
Dans les discussions, "DeFAI" (finance décentralisée basée sur l'intelligence artificielle) est devenu un mot-clé. Les experts soulignent qu'avec le développement rapide des grands modèles de langage et des agents IA, un tout nouveau paradigme financier — DeFAI — est en train de prendre forme. Cependant, cette transformation apporte également de nouvelles surfaces d'attaque et des risques de sécurité.
Un cadre supérieur d'une entreprise de sécurité a déclaré : "DeFAI a un large potentiel, mais cela nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus décisionnel des agents d'IA est influencé par le contexte, le temps, et même les interactions passées. Cette imprévisibilité non seulement aggrave les risques, mais crée également des opportunités pour les attaquants."
"AI Agent" est essentiellement un agent intelligent capable de prendre des décisions autonomes et d'exécuter des actions en fonction de la logique AI, généralement autorisé à fonctionner par des utilisateurs, des protocoles ou des DAO. Le représentant le plus typique est le robot de trading AI. Actuellement, la plupart des agents AI fonctionnent sur une architecture Web2, s'appuyant sur des serveurs centralisés et des API, ce qui les rend vulnérables aux attaques par injection, à la manipulation de modèles ou à la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Le forum a également évoqué un scénario typique d'attaque : lorsque l'agent de trading AI d'un utilisateur DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant peut publier de fausses alertes, par exemple "un certain protocole subit une attaque", ce qui peut inciter cet agent à déclencher immédiatement une liquidation d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par du trading anticipé.
Face aux risques mentionnés ci-dessus, les experts estiment généralement que la sécurité des agents IA ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces.
Tout d'abord, les utilisateurs doivent être clairs sur l'étendue des autorisations détenues par l'agent, accorder les autorisations avec prudence et faire attention à examiner les opérations à haut risque de l'agent AI. Deuxièmement, les développeurs devraient mettre en œuvre des mesures de défense dès la phase de conception, telles que : le renforcement des invites, l'isolation en bac à sable, la limitation de la fréquence et la logique de retour en arrière. Enfin, les entreprises de sécurité tierces devraient fournir un examen indépendant du comportement des modèles d'agent AI, de l'infrastructure et des méthodes d'intégration en chaîne, tout en collaborant avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
À la fin de la discussion, un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction de DeFAI, il a donné le conseil suivant : "Tout comme pour les contrats intelligents, la logique comportementale des agents IA est également mise en œuvre par du code. Puisqu'il s'agit de code, il y a un risque d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests de pénétration sont nécessaires."
En tant que l'un des événements blockchain les plus influents d'Europe, la Semaine Blockchain d'Istanbul a attiré plus de 15 000 participants, y compris des développeurs, des projets, des investisseurs et des régulateurs du monde entier. Cette année, avec le lancement officiel par la Commission des marchés de capitaux de Turquie de la délivrance de licences pour des projets blockchain, la position de cet événement dans l'industrie a été encore renforcée.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
19 J'aime
Récompense
19
6
Partager
Commentaire
0/400
PhantomMiner
· Il y a 23h
Préparez-vous à la spéculation, videz le portefeuille et partez.
Voir l'originalRépondre0
DefiEngineerJack
· Il y a 23h
*soupir* un autre jour, une autre faille de sécurité... la vérification formelle des LLM est non triviale, ser
Voir l'originalRépondre0
RugPullProphet
· Il y a 23h
J'ai dit dès la fin 2019 que je m'en irais. Maintenant, il y a encore une nouvelle faille.
Voir l'originalRépondre0
down_only_larry
· Il y a 23h
Encore un nouveau concept de Finance décentralisée, tsk tsk.
Voir l'originalRépondre0
CoffeeNFTrader
· Il y a 23h
Cesse de souffler, c'est encore sûr. Qui en parle, qui G.
Voir l'originalRépondre0
NightAirdropper
· Il y a 23h
Sécurité ? Les smart contracts explosent toute la journée.
L'émergence de DeFAI : la fusion de l'IA et du Web3 pose de nouveaux défis en matière de sécurité
L'intégration de l'IA et du Web3 soulève de nouveaux défis en matière de sécurité, DeFAI devient le point focal
Récemment, la Semaine de la blockchain d'Istanbul s'est concentrée sur les tendances de fusion entre l'IA et le Web3, devenant une plateforme importante pour les discussions sur la sécurité du Web3 cette année. Lors de deux tables rondes, plusieurs experts du secteur ont mené des discussions approfondies sur l'état actuel de l'application des technologies de l'IA dans la DeFi et les défis de sécurité associés.
Dans les discussions, "DeFAI" (finance décentralisée basée sur l'intelligence artificielle) est devenu un mot-clé. Les experts soulignent qu'avec le développement rapide des grands modèles de langage et des agents IA, un tout nouveau paradigme financier — DeFAI — est en train de prendre forme. Cependant, cette transformation apporte également de nouvelles surfaces d'attaque et des risques de sécurité.
Un cadre supérieur d'une entreprise de sécurité a déclaré : "DeFAI a un large potentiel, mais cela nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus décisionnel des agents d'IA est influencé par le contexte, le temps, et même les interactions passées. Cette imprévisibilité non seulement aggrave les risques, mais crée également des opportunités pour les attaquants."
"AI Agent" est essentiellement un agent intelligent capable de prendre des décisions autonomes et d'exécuter des actions en fonction de la logique AI, généralement autorisé à fonctionner par des utilisateurs, des protocoles ou des DAO. Le représentant le plus typique est le robot de trading AI. Actuellement, la plupart des agents AI fonctionnent sur une architecture Web2, s'appuyant sur des serveurs centralisés et des API, ce qui les rend vulnérables aux attaques par injection, à la manipulation de modèles ou à la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Le forum a également évoqué un scénario typique d'attaque : lorsque l'agent de trading AI d'un utilisateur DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant peut publier de fausses alertes, par exemple "un certain protocole subit une attaque", ce qui peut inciter cet agent à déclencher immédiatement une liquidation d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par du trading anticipé.
Face aux risques mentionnés ci-dessus, les experts estiment généralement que la sécurité des agents IA ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces.
Tout d'abord, les utilisateurs doivent être clairs sur l'étendue des autorisations détenues par l'agent, accorder les autorisations avec prudence et faire attention à examiner les opérations à haut risque de l'agent AI. Deuxièmement, les développeurs devraient mettre en œuvre des mesures de défense dès la phase de conception, telles que : le renforcement des invites, l'isolation en bac à sable, la limitation de la fréquence et la logique de retour en arrière. Enfin, les entreprises de sécurité tierces devraient fournir un examen indépendant du comportement des modèles d'agent AI, de l'infrastructure et des méthodes d'intégration en chaîne, tout en collaborant avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
À la fin de la discussion, un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction de DeFAI, il a donné le conseil suivant : "Tout comme pour les contrats intelligents, la logique comportementale des agents IA est également mise en œuvre par du code. Puisqu'il s'agit de code, il y a un risque d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests de pénétration sont nécessaires."
En tant que l'un des événements blockchain les plus influents d'Europe, la Semaine Blockchain d'Istanbul a attiré plus de 15 000 participants, y compris des développeurs, des projets, des investisseurs et des régulateurs du monde entier. Cette année, avec le lancement officiel par la Commission des marchés de capitaux de Turquie de la délivrance de licences pour des projets blockchain, la position de cet événement dans l'industrie a été encore renforcée.