Agentes de IA Precisam de Identidade e Provas de Conhecimento Zero São a Solução
As ZKPs podem se tornar a espinha dorsal de uma nova era de IA confiável e identidade digital, proporcionando a indivíduos e organizações uma forma de interagir de maneira segura e transparente entre plataformas e fronteiras, argumenta Evin McMullen, CEO e cofundador da Billions Network.

Estes são tempos interessantes para a IA e a confiança. Um número crescente de empresas de investimento está utilizando agentes de IA para revisar notas de pesquisa e documentos corporativos. Os seres humanos são solicitados a fornecer dados biométricos cada vez mais invasivos, como escaneamentos faciais, amostras de voz e padrões comportamentais, apenas para provar que não são bots. Uma vez no ambiente digital, esses dados podem ser utilizados como armas por bots movidos a IA para imitar pessoas reais de forma convincente, vencendo os próprios sistemas criados para mantê-los fora. Isso nos deixa em uma estranha nova corrida armamentista – quanto mais invasiva for a verificação, maior será o risco quando inevitavelmente ocorrer um vazamento. Então, como verificar com quem (ou com o quê) estamos realmente lidando?
É inconcebível exigir transparência dos humanos enquanto se aceita a opacidade das máquinas. Tanto os bots quanto os humanos online precisam de melhores formas de verificar suas identidades. Não podemos resolver esse problema simplesmente coletando mais dados biométricos, tampouco construindo registros centralizados que se tornam verdadeiros potes de mel para cibercriminosos. As provas de conhecimento zero oferecem um caminho a seguir onde tanto humanos quanto IA podem comprovar suas credenciais sem se exporem à exploração.
O Déficit de Confiança Bloqueando o Progresso
A ausência de identidade de IA verificável cria riscos imediatos para o mercado. Quando agentes de IA podem se passar por humanos, manipular mercados ou executar transações não autorizadas, as empresas hesitam justificadamente em implantar sistemas autônomos em larga escala. Acontece que os LLMs que foram “ajustados” em um conjunto de dados menor para melhorar o desempenho são 22 vezes mais provável para produzir saídas prejudiciais do que os modelos base, com as taxas de sucesso em contornar as salvaguardas de segurança e ética do sistema — um processo conhecido como “jailbreaking” — triplicando em relação aos sistemas prontos para produção. Sem uma verificação de identidade confiável, cada interação com IA se aproxima de uma possível violação de segurança.
O problema não é tão óbvio quanto impedir que agentes maliciosos implantem agentes desonestos, pois não estamos diante de uma única interface de IA. O futuro terá cada vez mais agentes autônomos de IA com capacidades crescentes. Em meio a um mar de agentes, como saber com o que estamos lidando? Mesmo sistemas legítimos de IA precisam de credenciais verificáveis para participar da emergente economia agente a agente. Quando um bot de negociação com IA executa uma transação com outro bot, ambas as partes precisam de garantias sobre a identidade, autorização e estrutura de responsabilidade da outra parte.
O lado humano dessa equação está igualmente comprometido. Os sistemas tradicionais de verificação de identidade expõem os usuários a vazamentos massivos de dados, facilitam demasiadamente a vigilância autoritária e geram bilhões em receitas para grandes corporações a partir da venda de informações pessoais, sem compensar os indivíduos que as geram. As pessoas estão, com razão, relutantes em compartilhar mais dados pessoais, porém os requisitos regulatórios exigem procedimentos de verificação cada vez mais invasivos.
Zero-Knowledge: A Ponte Entre Privacidade e Responsabilidade
As provas de conhecimento zero (ZKPs) oferecem uma solução para esse problema aparentemente intratável. Em vez de revelar informações sensíveis, as ZKPs permitem que entidades, sejam humanas ou artificiais, comprovem afirmações específicas sem expor os dados subjacentes. Um usuário pode provar que tem mais de 21 anos sem revelar sua data de nascimento. Um agente de IA pode provar que foi treinado em conjuntos de dados éticos sem expor algoritmos proprietários. Uma instituição financeira pode verificar se um cliente atende aos requisitos regulatórios sem armazenar informações pessoais que possam ser violadas.
Para agentes de IA, as ZKPs podem viabilizar os níveis profundos necessários de confiança, uma vez que precisamos verificar não apenas a arquitetura técnica, mas também os padrões comportamentais, responsabilidade legal e reputação social. Com as ZKPs, essas reivindicações podem ser armazenadas em um grafo de confiança verificável na blockchain.
Pense nisso como uma camada de identidade composável que funciona em diversas plataformas e jurisdições. Dessa forma, quando um agente de IA apresenta suas credenciais, ele pode provar que seus dados de treinamento atendem aos padrões éticos, que seus resultados foram auditados e que suas ações estão vinculadas a entidades humanas responsáveis, tudo isso sem expor informações proprietárias.
As ZKPs podem transformar completamente o jogo, permitindo que comprovemos quem somos sem revelar dados sensíveis, mas a adoção ainda é lenta. As ZKPs permanecem como um nicho técnico, desconhecido para os usuários e envolto em áreas cinzentas regulatórias. Para completar, as empresas que lucram com a coleta de dados têm pouco incentivo para adotar a tecnologia. No entanto, isso não impede que empresas de identidade mais ágeis as utilizem e, conforme os padrões regulatórios surgem e a conscientização aumenta, as ZKPs podem se tornar a espinha dorsal de uma nova era de IA confiável e identidade digital – proporcionando a indivíduos e organizações uma maneira de interagir de forma segura e transparente através de plataformas e fronteiras.
Implicações no Mercado: Desbloqueando a Economia dos Agentes
A IA Generativa pode adicionar trilhões anualmente para a economia global, mas grande parte desse valor permanece bloqueado por barreiras de verificação de identidade. Existem várias razões para isso. Uma delas é que investidores institucionais precisam de conformidade robusta com KYC/AML antes de alocar capital em estratégias impulsionadas por IA. Outra é que as empresas exigem identidades de agentes verificáveis antes de permitir que sistemas autônomos acessem infraestrutura crítica. E os reguladores demandam mecanismos de responsabilidade antes de aprovar o uso de IA em domínios sensíveis.
Os sistemas de identidade baseados em ZKP atendem a todos esses requisitos, preservando a privacidade e a autonomia que tornam os sistemas descentralizados valiosos. Ao possibilitar a divulgação seletiva, eles satisfazem as exigências regulatórias sem criar armadilhas de dados pessoais. Ao fornecer verificação criptográfica, permitem interações sem necessidade de confiança entre agentes autônomos. E, ao manter o controle do usuário, alinham-se às regulamentações emergentes de proteção de dados, como o GDPR e as leis de privacidade da Califórnia.
A tecnologia também pode ajudar a enfrentar a crescente crise dos deepfakes. Quando cada conteúdo pode ser vinculado criptograficamente a um criador verificado sem revelar sua identidade, podemos combater a desinformação e proteger a privacidade. Isso é particularmente crucial à medida que o conteúdo gerado por IA se torna indistinguível do material criado por humanos.
O Caminho ZK
Alguns argumentarão que qualquer sistema de identidade representa um passo em direção ao autoritarismo – mas nenhuma sociedade pode funcionar sem um meio de identificar sua cidadania. A verificação de identidade já ocorre em larga escala, porém de forma ineficaz. Toda vez que enviamos documentos para KYC, submetemos ao reconhecimento facial ou compartilhamos dados pessoais para verificação de idade, estamos participando de sistemas de identidade que são invasivos, inseguros e ineficientes.
As provas de conhecimento zero oferecem um caminho a seguir que respeita a privacidade individual, ao mesmo tempo que possibilita a confiança necessária para interações econômicas complexas. Elas nos permitem construir sistemas onde os usuários controlam seus dados, a verificação não requer vigilância, e tanto humanos quanto agentes de IA podem interagir de forma segura sem sacrificar a autonomia.
Nota: As opiniões expressas nesta coluna são do autor e não refletem necessariamente as da CoinDesk, Inc. ou de seus proprietários e afiliados.
More For You
Protocol Research: GoPlus Security

What to know:
- As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
- GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
- Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.
More For You
O Dólar Está Desmoronando. As Stablecoins Lastreadas em Fiat São as Próximas

Uma possível solução é um novo tipo de stablecoin cujo valor está vinculado a um estoque físico real de ouro, argumenta Stephen Wundke, da Algoz.










