Слияние AI и Web3 вызывает новые проблемы безопасности, DeFAI становится центральной темой
Недавно в Стамбуле прошла неделя блокчейна, сосредоточенная на тенденциях интеграции AI и Web3, став важной платформой для обсуждения безопасности Web3 в этом году. На двух круглых столах несколько экспертов отрасли глубоко обсудили текущее состояние применения технологий AI в DeFi и связанные с этим вызовы безопасности.
В обсуждении ключевым словом стало "DeFAI" (децентрализованные финансовые технологии с использованием искусственного интеллекта). Эксперты указывают на то, что с быстрым развитием больших языковых моделей и AI-агентов формируется совершенно новая финансовая парадигма — DeFAI. Однако эта трансформация также принесла новые уязвимости и проблемы безопасности.
Некоторые высокопоставленные руководители компании по безопасности заявили: "DeFAI имеет широкий потенциал, но также заставляет нас переосмыслить механизмы доверия в децентрализованных системах. В отличие от смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентов подвергается влиянию контекста, времени и даже исторического взаимодействия. Эта непредсказуемость не только увеличивает риски, но и создает возможности для злоумышленников."
"AI-агенты" по сути являются интеллектуальными системами, способными самостоятельно принимать решения и выполнять действия на основе ИИ-логики, обычно они запускаются с разрешения пользователя, протокола или DAO. Наиболее типичным представителем являются ИИ-торговые роботы. В настоящее время большинство ИИ-агентов функционируют на основе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для атак внедрения, манипуляций с моделями или подделки данных. Если они будут захвачены, это может привести не только к потерям средств, но и повлиять на стабильность всего протокола.
В форуме также упоминалась типичная ситуация атаки: когда AI-торговый агент DeFi-пользователя мониторит сообщения в социальных сетях как торговые сигналы, злоумышленник публикует ложные предупреждения, например, "некоторый протокол подвергся атаке", что может заставить агента немедленно запустить экстренную распродажу. Эта операция не только приведет к потерям активов пользователей, но и вызовет колебания на рынке, которые будут использованы злоумышленником для фронтирования сделок.
Эксперты в целом считают, что безопасность AI-агентов не должна полностью зависеть от одной стороны, а является общей ответственностью пользователей, разработчиков и третьих лиц в области безопасности.
Во-первых, пользователи должны четко понимать объем полномочий, которыми обладает агент, осторожно предоставлять права и тщательно проверять высокорисковые операции ИИ-агента. Во-вторых, разработчики должны внедрять меры защиты на этапе проектирования, такие как: усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. А сторонние компании по безопасности должны обеспечивать независимую проверку поведения моделей ИИ-агентов, инфраструктуры и способов интеграции на блокчейне, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложений по их смягчению.
В ходе обсуждения один из экспертов по безопасности предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире – это лишь вопрос времени." Для разработчиков, которые исследуют направление DeFAI, он дал следующий совет: "Как и в случае с умными контрактами, логика поведения AI-агента также реализуется с помощью кода. Поскольку это код, он может быть подвержен атакам, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
Как одно из самых влиятельных мероприятий в области блокчейна в Европе, Стамбульская неделя блокчейна привлекла более 15 000 участников со всего мира, включая разработчиков, проекты, инвесторов и регуляторов. В этом году, с официальным запуском Комиссией по капиталовложениям Турции лицензирования блокчейн-проектов, статус мероприятия в отрасли был дополнительно укреплен.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
19 Лайков
Награда
19
6
Поделиться
комментарий
0/400
PhantomMiner
· 20ч назад
Спекуляция готова, опустошите Кошелек и бегите с ведром.
Посмотреть ОригиналОтветить0
DefiEngineerJack
· 20ч назад
*вздох* еще один день, еще одна уязвимость безопасности... формальная верификация на LLM не тривиальна, сер
Посмотреть ОригиналОтветить0
RugPullProphet
· 20ч назад
Сказал же, что в конце 19 года уйду, а теперь снова нашли новую уязвимость.
Посмотреть ОригиналОтветить0
down_only_larry
· 21ч назад
Опять новая концепция Децентрализованных финансов, тьфу-тьфу.
Посмотреть ОригиналОтветить0
CoffeeNFTrader
· 21ч назад
Не говори ерунду, всё в порядке, кто говорит, тот и G.
Посмотреть ОригиналОтветить0
NightAirdropper
· 21ч назад
Безопасность? Смарт-контракты все время подрываются.
Восхождение DeFAI: Слияние ИИ и Web3 вызывает новые проблемы безопасности
Слияние AI и Web3 вызывает новые проблемы безопасности, DeFAI становится центральной темой
Недавно в Стамбуле прошла неделя блокчейна, сосредоточенная на тенденциях интеграции AI и Web3, став важной платформой для обсуждения безопасности Web3 в этом году. На двух круглых столах несколько экспертов отрасли глубоко обсудили текущее состояние применения технологий AI в DeFi и связанные с этим вызовы безопасности.
В обсуждении ключевым словом стало "DeFAI" (децентрализованные финансовые технологии с использованием искусственного интеллекта). Эксперты указывают на то, что с быстрым развитием больших языковых моделей и AI-агентов формируется совершенно новая финансовая парадигма — DeFAI. Однако эта трансформация также принесла новые уязвимости и проблемы безопасности.
Некоторые высокопоставленные руководители компании по безопасности заявили: "DeFAI имеет широкий потенциал, но также заставляет нас переосмыслить механизмы доверия в децентрализованных системах. В отличие от смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентов подвергается влиянию контекста, времени и даже исторического взаимодействия. Эта непредсказуемость не только увеличивает риски, но и создает возможности для злоумышленников."
"AI-агенты" по сути являются интеллектуальными системами, способными самостоятельно принимать решения и выполнять действия на основе ИИ-логики, обычно они запускаются с разрешения пользователя, протокола или DAO. Наиболее типичным представителем являются ИИ-торговые роботы. В настоящее время большинство ИИ-агентов функционируют на основе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для атак внедрения, манипуляций с моделями или подделки данных. Если они будут захвачены, это может привести не только к потерям средств, но и повлиять на стабильность всего протокола.
В форуме также упоминалась типичная ситуация атаки: когда AI-торговый агент DeFi-пользователя мониторит сообщения в социальных сетях как торговые сигналы, злоумышленник публикует ложные предупреждения, например, "некоторый протокол подвергся атаке", что может заставить агента немедленно запустить экстренную распродажу. Эта операция не только приведет к потерям активов пользователей, но и вызовет колебания на рынке, которые будут использованы злоумышленником для фронтирования сделок.
Эксперты в целом считают, что безопасность AI-агентов не должна полностью зависеть от одной стороны, а является общей ответственностью пользователей, разработчиков и третьих лиц в области безопасности.
Во-первых, пользователи должны четко понимать объем полномочий, которыми обладает агент, осторожно предоставлять права и тщательно проверять высокорисковые операции ИИ-агента. Во-вторых, разработчики должны внедрять меры защиты на этапе проектирования, такие как: усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. А сторонние компании по безопасности должны обеспечивать независимую проверку поведения моделей ИИ-агентов, инфраструктуры и способов интеграции на блокчейне, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложений по их смягчению.
В ходе обсуждения один из экспертов по безопасности предупредил: "Если продолжать рассматривать AI-агентов как 'черный ящик', то инциденты безопасности в реальном мире – это лишь вопрос времени." Для разработчиков, которые исследуют направление DeFAI, он дал следующий совет: "Как и в случае с умными контрактами, логика поведения AI-агента также реализуется с помощью кода. Поскольку это код, он может быть подвержен атакам, поэтому необходимо проводить профессиональный аудит безопасности и тестирование на проникновение."
Как одно из самых влиятельных мероприятий в области блокчейна в Европе, Стамбульская неделя блокчейна привлекла более 15 000 участников со всего мира, включая разработчиков, проекты, инвесторов и регуляторов. В этом году, с официальным запуском Комиссией по капиталовложениям Турции лицензирования блокчейн-проектов, статус мероприятия в отрасли был дополнительно укреплен.