Compartir este artículo

Los Agentes de IA Necesitan Identidad y las Pruebas de Conocimiento Cero Son la Solución

Las ZKPs podrían convertirse en la columna vertebral de una nueva era de inteligencia artificial confiable e identidad digital, proporcionando a individuos y organizaciones una forma de interactuar de manera segura y transparente a través de plataformas y fronteras, sostiene Evin McMullen, CEO y cofundador de Billions Network.

19 nov 2025, 6:00 p. .m.. Traducido por IA
Robots (Unsplash/Sumaid pal Singh Bakshi/Modified by CoinDesk)

Estos son tiempos interesantes para la IA y la confianza. Un número creciente de firmas de inversión están utilizando agentes de IA para revisar notas de investigación y documentos corporativos. Se pide a los humanos que entreguen datos biométricos cada vez más invasivos, como escaneos faciales, muestras de voz y patrones de comportamiento, solo para demostrar que no son bots. Una vez en circulación, estos datos pueden ser utilizados maliciosamente por bots impulsados por IA para suplantar de manera convincente a personas reales, derrotando los mismos sistemas diseñados para mantenerlos fuera. Esto nos deja en una extraña nueva carrera armamentista: cuanto más invasiva es la verificación, mayor es el riesgo cuando inevitablemente se filtra. Entonces, ¿cómo verificamos con quién (o qué) estamos realmente tratando?

Es inconcebible exigir transparencia a los humanos mientras se acepta la opacidad de las máquinas. Tanto los bots como los humanos en línea necesitan mejores métodos para verificar su identidad. No podemos resolver este problema simplemente recopilando más datos biométricos, ni construyendo registros centralizados que representen enormes señuelos para los ciberdelincuentes. Las pruebas de conocimiento cero ofrecen un camino a seguir donde tanto humanos como IA pueden demostrar sus credenciales sin exponerse a la explotación.

CONTINÚA MÁS ABAJO
No te pierdas otra historia.Suscríbete al boletín de CoinDesk Headlines hoy. Ver todos los boletines

El déficit de confianza que bloquea el progreso

La ausencia de una identidad verificable de IA genera riesgos inmediatos para el mercado. Cuando los agentes de IA pueden hacerse pasar por humanos, manipular mercados o ejecutar transacciones no autorizadas, las empresas legítimamente dudan en desplegar sistemas autónomos a gran escala. Resulta que los modelos de lenguaje grande (LLM) que han sido “ajustados” en un conjunto de datos más pequeño para mejorar el rendimiento son 22 veces más probable para producir resultados nocivos que los modelos base, con tasas de éxito al eludir las barreras de seguridad y éticas del sistema — un proceso conocido como “jailbreaking” — triplicándose frente a los sistemas listos para producción. Sin una verificación de identidad confiable, cada interacción con la IA se acerca un paso más a una posible brecha de seguridad.

El problema no es tan evidente como evitar que actores malintencionados desplieguen agentes irregulares, porque no se trata de enfrentarnos a una única interfaz de IA. El futuro verá cada vez más agentes autónomos de IA con mayores capacidades. En un mar tan amplio de agentes, ¿cómo sabemos con qué estamos tratando? Incluso los sistemas legítimos de IA necesitan credenciales verificables para participar en la emergente economía de agente a agente. Cuando un bot de trading de IA ejecuta una transacción con otro bot, ambas partes necesitan garantías sobre la identidad, autorización y estructura de responsabilidad del otro.

El lado humano de esta ecuación está igualmente quebrantado. Los sistemas tradicionales de verificación de identidad exponen a los usuarios a violaciones masivas de datos, facilitan demasiado la vigilancia autoritaria y generan miles de millones en ingresos para grandes corporaciones a partir de la venta de información personal sin compensar a los individuos que la generan. Las personas están justificadamente reacias a compartir más datos personales, sin embargo, los requisitos regulatorios exigen procedimientos de verificación cada vez más invasivos.

Conocimiento Cero: El Puente Entre la Privacidad y la Responsabilidad

Las pruebas de conocimiento cero (ZKPs) ofrecen una solución a este problema aparentemente intratable. En lugar de revelar información sensible, las ZKPs permiten a las entidades, ya sean humanas o artificiales, demostrar afirmaciones específicas sin exponer los datos subyacentes. Un usuario puede demostrar que tiene más de 21 años sin revelar su fecha de nacimiento. Un agente de IA puede probar que fue entrenado con conjuntos de datos éticos sin divulgar algoritmos propietarios. Una institución financiera puede verificar que un cliente cumple con los requisitos regulatorios sin almacenar información personal que pueda ser vulnerada.

Para los agentes de IA, los ZKP pueden habilitar los niveles profundos necesarios de confianza, ya que necesitamos verificar no solo la arquitectura técnica sino también los patrones de comportamiento, la responsabilidad legal y la reputación social. Con los ZKP, estas afirmaciones pueden almacenarse en un grafo de confianza verificable en la cadena.

Piénselo como una capa de identidad componible que funciona a través de plataformas y jurisdicciones. De esta manera, cuando un agente de IA presenta sus credenciales, puede demostrar que sus datos de entrenamiento cumplen con estándares éticos, que sus resultados han sido auditados y que sus acciones están vinculadas a entidades humanas responsables, todo ello sin exponer información propietaria.

Las pruebas de conocimiento cero (ZKP) podrían cambiar por completo las reglas del juego, permitiéndonos demostrar quiénes somos sin entregar datos sensibles, pero la adopción sigue siendo lenta. Las ZKP siguen siendo una nicho técnico, desconocido para los usuarios y enredado en áreas grises regulatorias. Para colmo, las empresas que se benefician de la recopilación de datos tienen poco incentivo para adoptar la tecnología. Sin embargo, eso no impide que compañías de identidad más ágiles las aprovechen, y a medida que surgen estándares regulatorios y aumenta la conciencia, las ZKP podrían convertirse en la columna vertebral de una nueva era de inteligencia artificial confiable e identidad digital, ofreciendo a individuos y organizaciones una forma de interactuar de manera segura y transparente a través de plataformas y fronteras.

Implicaciones del Mercado: Desbloqueando la Economía del Agente

La IA generativa podría agregar billones anualmente a la economía global, pero gran parte de este valor permanece bloqueado tras barreras de verificación de identidad. Existen varias razones para ello. Una es que los inversores institucionales necesitan un cumplimiento riguroso de KYC/AML antes de desplegar capital en estrategias impulsadas por IA. Otra es que las empresas requieren identidades de agentes verificables antes de permitir que sistemas autónomos accedan a infraestructuras críticas. Y los reguladores exigen mecanismos de rendición de cuentas antes de aprobar el despliegue de IA en ámbitos sensibles.

Los sistemas de identidad basados en ZKP abordan todos estos requisitos mientras preservan la privacidad y autonomía que hacen valiosos a los sistemas descentralizados. Al permitir la divulgación selectiva, satisfacen los requisitos regulatorios sin crear puntos de atracción de datos personales. Al proporcionar verificación criptográfica, posibilitan interacciones sin confianza entre agentes autónomos. Y al mantener el control del usuario, se alinean con regulaciones emergentes de protección de datos como el GDPR y las leyes de privacidad de California.

La tecnología también podría ayudar a abordar la creciente crisis de los deepfakes. Cuando cada pieza de contenido puede estar vinculada criptográficamente a un creador verificado sin revelar su identidad, podemos combatir la desinformación y proteger la privacidad. Esto es particularmente crucial a medida que el contenido generado por IA se vuelve indistinguible del material creado por humanos.

El Camino ZK

Algunos argumentarán que cualquier sistema de identidad representa un paso hacia el autoritarismo, pero ninguna sociedad puede funcionar sin un método para identificar a su ciudadanía. La verificación de identidad ya se realiza a gran escala, solo que de manera deficiente. Cada vez que cargamos documentos para KYC, nos sometemos a reconocimiento facial o compartimos datos personales para la verificación de edad, estamos participando en sistemas de identidad que son invasivos, inseguros e ineficientes.

Las pruebas de conocimiento cero ofrecen un camino a seguir que respeta la privacidad individual mientras permite la confianza necesaria para interacciones económicas complejas. Nos permiten construir sistemas donde los usuarios controlan sus datos, la verificación no requiere vigilancia, y tanto humanos como agentes de IA pueden interactuar de manera segura sin sacrificar la autonomía.

Nota: Las opiniones expresadas en esta columna son las del autor y no necesariamente reflejan las de CoinDesk, Inc. o sus propietarios y afiliados.

Más para ti

Protocol Research: GoPlus Security

GP Basic Image

Lo que debes saber:

  • As of October 2025, GoPlus has generated $4.7M in total revenue across its product lines. The GoPlus App is the primary revenue driver, contributing $2.5M (approx. 53%), followed by the SafeToken Protocol at $1.7M.
  • GoPlus Intelligence's Token Security API averaged 717 million monthly calls year-to-date in 2025 , with a peak of nearly 1 billion calls in February 2025. Total blockchain-level requests, including transaction simulations, averaged an additional 350 million per month.
  • Since its January 2025 launch , the $GPS token has registered over $5B in total spot volume and $10B in derivatives volume in 2025. Monthly spot volume peaked in March 2025 at over $1.1B , while derivatives volume peaked the same month at over $4B.

Más para ti

El dólar se está desmoronando. Las stablecoins respaldadas por fiat son las siguientes

1Kg gold bars

Una posible solución es un nuevo tipo de stablecoin cuyo valor está vinculado a una reserva física de oro en el mundo real, sostiene Stephen Wundke de Algoz.