El auge de DeFAI plantea nuevos desafíos de seguridad para Web3, expertos piden atención a los riesgos de los agentes de IA.

La fusión de la IA y Web3 plantea nuevos desafíos de seguridad, DeFAI se convierte en el centro de atención

Recientemente, se llevó a cabo un evento de blockchain en Estambul enfocado en las tendencias de fusión entre AI y Web3, convirtiéndose en un importante espacio de discusión sobre la seguridad de Web3 este año. Durante el evento, varios expertos de la industria mantuvieron discusiones profundas sobre el estado de la aplicación de la tecnología AI en las finanzas descentralizadas (DeFi) y los desafíos de seguridad.

Con el rápido desarrollo de los modelos de lenguaje y los agentes de IA, se está formando un nuevo paradigma financiero: la Finanzas Artificialmente Descentralizadas (DeFAI). Sin embargo, esta transformación también ha traído nuevas superficies de ataque y riesgos de seguridad. Los expertos presentes señalaron que, aunque DeFAI tiene un amplio potencial, también nos exige reconsiderar los mecanismos de confianza en los sistemas descentralizados. A diferencia de los contratos inteligentes basados en lógica fija, el proceso de decisión de los agentes de IA está influenciado por el contexto, el tiempo e incluso las interacciones históricas; esta imprevisibilidad no solo agrava el riesgo, sino que también crea oportunidades para los atacantes.

IBW 2025: La fusión de AI y Web3, nuevos desafíos de seguridad bajo el auge de DeFAI

Los agentes de IA son esencialmente entidades inteligentes que pueden tomar decisiones y ejecutar acciones de forma autónoma basadas en lógica de IA, y generalmente son autorizados para operar por usuarios, protocolos o DAO. El representante más típico de esto es el robot de trading de IA. Actualmente, la mayoría de los agentes de IA funcionan sobre una arquitectura Web2, dependiendo de servidores centralizados y APIs, lo que los hace vulnerables a ataques de inyección, manipulación de modelos o alteración de datos. Una vez que son secuestrados, no solo puede resultar en la pérdida de fondos, sino que también puede afectar la estabilidad de todo el protocolo.

Los expertos presentes también mencionaron un escenario típico de ataque: cuando un agente de trading AI que opera un usuario de DeFi está monitoreando mensajes en redes sociales como señales de trading, un atacante puede publicar alarmas falsas, como "un protocolo está bajo ataque", lo que podría inducir al agente a iniciar de inmediato un desalojo de emergencia. Esta acción no solo puede resultar en pérdidas de activos para el usuario, sino que también puede provocar volatilidad en el mercado, que luego puede ser explotada por el atacante a través de operaciones anticipadas.

En relación con los riesgos mencionados, los expertos presentes consideran que la seguridad de los agentes de IA no debe ser asumida únicamente por una de las partes, sino que es una responsabilidad compartida entre los usuarios, los desarrolladores y las instituciones de seguridad de terceros. En primer lugar, los usuarios deben ser conscientes del alcance de los permisos que posee el agente, otorgando permisos con cautela y prestando atención a la revisión de las operaciones de alto riesgo del agente de IA. En segundo lugar, los desarrolladores deben implementar medidas de defensa desde la fase de diseño, tales como: refuerzo de palabras clave, aislamiento en sandbox, limitación de tasas y lógica de retroceso, entre otros mecanismos. Por último, las empresas de seguridad de terceros deben proporcionar revisiones independientes del comportamiento del modelo de agente de IA, la infraestructura y la forma de integración en la cadena, y colaborar con los desarrolladores y los usuarios para identificar riesgos y proponer medidas de mitigación.

Un experto en seguridad advirtió: "Si seguimos tratando a los agentes de IA como una 'caja negra', los accidentes de seguridad en el mundo real son solo cuestión de tiempo." Para los desarrolladores que están explorando la dirección de DeFAI, su consejo es: "Al igual que los contratos inteligentes, la lógica de comportamiento de los agentes de IA también está implementada por código. Dado que es código, existe la posibilidad de ser atacado, por lo que se necesita realizar auditorías de seguridad y pruebas de penetración profesionales."

Con el desarrollo continuo de la tecnología blockchain y la profunda integración de la IA, los problemas de seguridad en el campo de DeFAI se convertirán en el foco de atención de la industria en el futuro cercano. Encontrar un equilibrio entre la innovación y la seguridad será un importante desafío que enfrentará toda la industria.

IBW 2025: La fusión de AI y Web3, nuevos desafíos de seguridad bajo el auge de DeFAI

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Republicar
  • Compartir
Comentar
0/400
ParallelChainMaxivip
· 08-13 15:42
Deja de jugar, eventualmente se derrumbará todo.
Ver originalesResponder0
CryptoAdventurervip
· 08-13 00:59
tontos han comenzado una nueva clase, no entienden cómo jugar con el control de riesgos.
Ver originalesResponder0
RetiredMinervip
· 08-11 07:06
¿Acaso todos vienen a tomar a la gente por tonta? La seguridad se ha discutido durante mucho tiempo, solo ha sido perder el tiempo.
Ver originalesResponder0
AirdropHarvestervip
· 08-11 06:53
El manipulador del mercado ha comenzado, los bots van a empezar a tomar a la gente por tonta.
Ver originalesResponder0
FlatTaxvip
· 08-11 06:44
mundo Cripto viejo tonto un pequeño negocio
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)