A fusão da IA e do Web3 provoca novos desafios de segurança, DeFAI torna-se o foco
Recentemente, a Semana de Blockchain de Istambul focou nas tendências de fusão entre IA e Web3, tornando-se uma plataforma importante para a discussão sobre segurança no Web3 este ano. Em duas mesas-redondas, vários especialistas da indústria discutiram profundamente o estado atual da aplicação da tecnologia de IA no DeFi e os desafios de segurança.
Em discussão, "DeFAI" (finanças de inteligência artificial descentralizada) tornou-se uma palavra-chave. Especialistas apontam que, com o rápido desenvolvimento de grandes modelos de linguagem e agentes de IA, um novo paradigma financeiro — DeFAI está gradualmente se formando. No entanto, essa transformação também trouxe uma nova superfície de ataque e riscos de segurança.
Um executivo de uma empresa de segurança afirmou: "DeFAI tem um grande potencial, mas também nos obriga a reexaminar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, pelo tempo e até mesmo por interações históricas. Essa imprevisibilidade não só aumenta o risco, mas também cria oportunidades para os atacantes."
"AI代理" é, essencialmente, um agente inteligente capaz de tomar decisões e executar ações de forma autônoma, com base na lógica da IA, geralmente autorizado a operar por usuários, protocolos ou DAOs. O exemplo mais típico são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA opera sobre uma arquitetura Web2, dependendo de servidores e APIs centralizados, o que os torna suscetíveis a ameaças como injeção de código, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não apenas podem resultar em perdas financeiras, mas também podem afetar a estabilidade de todo o protocolo.
O fórum também mencionou um cenário típico de ataque: quando um agente de negociação de IA usado por usuários de DeFi está monitorando mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alarmes falsos, como "um certo protocolo está sob ataque", o que pode induzir o agente a iniciar imediatamente uma liquidação de emergência. Esta operação não apenas resultará em perdas de ativos para o usuário, mas também provocará volatilidade no mercado, que o atacante poderá explorar através de negociações de frente.
Perante os riscos mencionados, os especialistas geralmente acreditam que a segurança dos agentes de IA não deve ser assumida apenas por uma parte, mas sim ser uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança terceiras.
Primeiro, os usuários precisam ter clareza sobre o escopo de permissões que o agente possui, concedendo permissões com cautela e também prestando atenção na revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa já na fase de design, como: fortalecimento de prompts, isolamento em sandbox, limitação de taxa e lógica de fallback, entre outros mecanismos. E as empresas de segurança terceirizadas devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração na blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
No final da discussão, um especialista em segurança alertou: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', um acidente de segurança no mundo real é apenas uma questão de tempo." Para os desenvolvedores que estão explorando a direção do DeFAI, ele deu o seguinte conselho: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, existe a possibilidade de ser atacado, portanto, é necessário realizar auditorias de segurança profissionais e testes de penetração."
Como um dos eventos de blockchain mais influentes da Europa, a Semana de Blockchain de Istambul atraiu um total de mais de 15.000 participantes, incluindo desenvolvedores, equipes de projeto, investidores e reguladores de todo o mundo. Este ano, com a Comissão de Mercado de Capitais da Turquia a iniciar oficialmente a emissão de licenças para projetos de blockchain, a posição deste evento na indústria foi ainda mais elevada.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
19 Curtidas
Recompensa
19
6
Compartilhar
Comentário
0/400
PhantomMiner
· 19h atrás
Preparar para a especulação, limpar a carteira e correr com o balde
Ver originalResponder0
DefiEngineerJack
· 19h atrás
*sigh* mais um dia, mais uma falha de segurança... a verificação formal em LLMs não é trivial, ser
Ver originalResponder0
RugPullProphet
· 19h atrás
Já tinha dito que ia sair no final de 2019. Agora estão a descobrir uma nova vulnerabilidade.
Ver originalResponder0
down_only_larry
· 19h atrás
Outra nova ideia de Finanças Descentralizadas, tsk tsk.
Ver originalResponder0
CoffeeNFTrader
· 19h atrás
Deixa de falar, ainda está seguro. Quem fala, quem G.
Ver originalResponder0
NightAirdropper
· 20h atrás
Segurança? Os contratos inteligentes estão sempre a falhar.
DeFAI em ascensão: A fusão de AI e Web3 provoca novos desafios de segurança
A fusão da IA e do Web3 provoca novos desafios de segurança, DeFAI torna-se o foco
Recentemente, a Semana de Blockchain de Istambul focou nas tendências de fusão entre IA e Web3, tornando-se uma plataforma importante para a discussão sobre segurança no Web3 este ano. Em duas mesas-redondas, vários especialistas da indústria discutiram profundamente o estado atual da aplicação da tecnologia de IA no DeFi e os desafios de segurança.
Em discussão, "DeFAI" (finanças de inteligência artificial descentralizada) tornou-se uma palavra-chave. Especialistas apontam que, com o rápido desenvolvimento de grandes modelos de linguagem e agentes de IA, um novo paradigma financeiro — DeFAI está gradualmente se formando. No entanto, essa transformação também trouxe uma nova superfície de ataque e riscos de segurança.
Um executivo de uma empresa de segurança afirmou: "DeFAI tem um grande potencial, mas também nos obriga a reexaminar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, pelo tempo e até mesmo por interações históricas. Essa imprevisibilidade não só aumenta o risco, mas também cria oportunidades para os atacantes."
"AI代理" é, essencialmente, um agente inteligente capaz de tomar decisões e executar ações de forma autônoma, com base na lógica da IA, geralmente autorizado a operar por usuários, protocolos ou DAOs. O exemplo mais típico são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA opera sobre uma arquitetura Web2, dependendo de servidores e APIs centralizados, o que os torna suscetíveis a ameaças como injeção de código, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não apenas podem resultar em perdas financeiras, mas também podem afetar a estabilidade de todo o protocolo.
O fórum também mencionou um cenário típico de ataque: quando um agente de negociação de IA usado por usuários de DeFi está monitorando mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alarmes falsos, como "um certo protocolo está sob ataque", o que pode induzir o agente a iniciar imediatamente uma liquidação de emergência. Esta operação não apenas resultará em perdas de ativos para o usuário, mas também provocará volatilidade no mercado, que o atacante poderá explorar através de negociações de frente.
Perante os riscos mencionados, os especialistas geralmente acreditam que a segurança dos agentes de IA não deve ser assumida apenas por uma parte, mas sim ser uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança terceiras.
Primeiro, os usuários precisam ter clareza sobre o escopo de permissões que o agente possui, concedendo permissões com cautela e também prestando atenção na revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa já na fase de design, como: fortalecimento de prompts, isolamento em sandbox, limitação de taxa e lógica de fallback, entre outros mecanismos. E as empresas de segurança terceirizadas devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração na blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
No final da discussão, um especialista em segurança alertou: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', um acidente de segurança no mundo real é apenas uma questão de tempo." Para os desenvolvedores que estão explorando a direção do DeFAI, ele deu o seguinte conselho: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, existe a possibilidade de ser atacado, portanto, é necessário realizar auditorias de segurança profissionais e testes de penetração."
Como um dos eventos de blockchain mais influentes da Europa, a Semana de Blockchain de Istambul atraiu um total de mais de 15.000 participantes, incluindo desenvolvedores, equipes de projeto, investidores e reguladores de todo o mundo. Este ano, com a Comissão de Mercado de Capitais da Turquia a iniciar oficialmente a emissão de licenças para projetos de blockchain, a posição deste evento na indústria foi ainda mais elevada.