Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
La Computación Confidencial Es Cómo la IA Recupera la Confianza Que Ya Ha Perdido — Y Por Qué Necesita Convertirse en el Nuevo Estándar
En Resumen
A medida que la adopción de IA supera la confianza pública, Ahmad Shadid de ORGN argumenta que la computación confidencial y la ejecución verificable ofrecen la prueba criptográfica que las políticas de privacidad por sí solas no pueden proporcionar.
Los sistemas de IA avanzan rápidamente en flujos de trabajo sensibles — escribiendo código, manejando datos de clientes y apoyando decisiones en sectores regulados como finanzas y salud. La velocidad de esa integración ha creado un problema estructural que la industria aún no ha abordado adecuadamente.
El desafío es la confianza. Un estudio realizado por la Universidad de Melbourne en colaboración con KPMG, que encuestó a más de 48,000 personas en 47 países, encontró que aunque el 66% de los encuestados usa IA regularmente, menos de la mitad — solo 46% — dice estar dispuesto a confiar en los sistemas de IA. El uso y la confianza van en direcciones opuestas, y la brecha entre ambos se está ampliando.
La dimensión de privacidad de datos de este déficit de confianza es particularmente aguda. Según el Índice de IA 2025 de Stanford, la confianza global en que las empresas de IA protegen los datos personales cayó del 50% en 2023 al 47% en 2024, mientras que cada vez menos personas creen que los sistemas de IA son imparciales y libres de discriminación en comparación con el año anterior. Esa disminución ocurre justo cuando la IA se integra más profundamente en la vida diaria y en entornos profesionales, haciendo que las consecuencias de una confianza mal colocada sean considerablemente mayores.
Ahmad Shadid, CEO de ORGN, el primer entorno de desarrollo confidencial del mundo, sostiene que la próxima fase de la IA no se basará en la confianza — se basará en la prueba. La computación confidencial y la ejecución verificable están haciendo posible demostrar exactamente cómo se procesa la data, en lugar de simplemente prometer que es segura.
En una conversación con MPost, explicó cómo estas tecnologías abordan las brechas de privacidad y confianza que las medidas de seguridad convencionales dejan abiertas en los flujos de trabajo de IA, y qué se necesitaría para que se vuelvan de uso generalizado.
Cómo protegen actualmente los datos las empresas de IA — y por qué no es suficiente
La mayoría de las empresas de IA actualmente dependen de una combinación de cifrado, controles de acceso y políticas de gobernanza para proteger datos sensibles. El cifrado se aplica a los datos en reposo y en tránsito usando algoritmos establecidos, mientras que los controles de acceso basados en roles, registros y detección de anomalías regulan quién puede interactuar con los sistemas y en qué condiciones. Estas medidas representan la línea base de la industria y, para muchos casos de uso, son suficientes.
El problema surge en un momento específico y en gran medida pasado por alto: cuando los datos se descifran en memoria para entrenamiento o inferencia del modelo. En ese momento, se abre una ventana de exposición. La computación confidencial aborda esto directamente cifrando los datos mientras se procesan activamente, dentro del hardware mismo, de modo que incluso el operador de infraestructura no pueda ver qué sucede dentro de la máquina.
Shadid identifica una vulnerabilidad estructural que los enfoques de seguridad estándar no cierran completamente. Cuando los datos se descifran en un servidor que un cliente no controla directamente — por ejemplo, en un entorno de nube pública o en una plataforma de IA de terceros — el cliente no tiene medios técnicos para verificar qué sucede realmente con ellos. En la práctica, dependen de la palabra del proveedor.
Esta preocupación no se limita a los usuarios finales. En entornos regulados, los CISO, auditores de cumplimiento y reguladores enfrentan el mismo problema. Normalmente confían en certificados ISO 27001, informes SOC 2 y documentos de políticas — instrumentos que, como dice Shadid, prueban la intención más que lo que realmente sucede con los datos en uso. La computación confidencial con attestación cambia esa ecuación al proporcionar evidencia criptográfica resistente a manipulaciones de que una versión específica del modelo se ejecutó dentro de un entorno de ejecución confiable aprobado con una pila de software aprobada. La garantía pasa de una intención documentada a un hecho técnico verificable.
El impulso regulatorio detrás de este cambio ya es visible. Según el Estudio de Computación Confidencial de IDC de julio de 2025, la introducción de la Ley de Resiliencia Operacional Digital de la UE llevó a que el 77% de las organizaciones consideraran más probable la computación confidencial, y el 75% ya la adoptaron en alguna forma. Los beneficios principales reportados fueron la mejora en la integridad de los datos, garantías de confidencialidad comprobadas y un cumplimiento regulatorio más fuerte.
Qué significa la Ejecución Verificable en la práctica
Para un público no técnico, Shadid describe la ejecución verificable como recibir un recibo criptográfico después de que un sistema de IA procesa datos. Ese recibo demuestra, de manera matemáticamente verificable, que la IA se ejecutó en hardware certificado genuino, que ejecutó la versión esperada del software y nada más junto a ella, y que el entorno estuvo adecuadamente asegurado antes de desbloquear cualquier dato sensible. La integridad del proceso ya no se basa en confiar en las garantías del proveedor — se basa en verificar la evidencia.
A nivel técnico, esto se logra mediante tres mecanismos interconectados. Los entornos de ejecución confiables, o TEEs, permiten que el procesador cree un enclave sellado — memoria y ejecución aisladas a nivel de silicio — de modo que ni el sistema operativo, ni el hipervisor, ni el operador de la nube puedan leer lo que sucede dentro. La attestación remota permite que una parte externa verifique que un TEE genuino está ejecutando una pila de software aprobada antes de que se liberen claves de descifrado o entradas sensibles. Finalmente, las salidas verificables permiten que algunos sistemas firmen sus resultados con un certificado vinculado a la attestación, de modo que quien reciba la salida pueda confirmar que provino de la aplicación esperada dentro de un entorno protegido y no fue alterada en tránsito.
Shadid sostiene que las ventajas de la computación confidencial se extienden a toda la cadena de valor de la IA. Los desarrolladores de IA pueden entrenar y ejecutar modelos en conjuntos de datos sensibles o regulados en entornos compartidos en la nube sin exponer los datos en bruto al operador de la plataforma. Para las empresas, la tecnología reduce la exposición legal y reputacional al ofrecer pruebas demostrables de que los datos personales permanecen protegidos durante el procesamiento de IA — apoyando requisitos de privacidad como GDPR y regulaciones sectoriales. También abre la puerta a la colaboración de datos entre organizaciones, ya que cada parte puede verificar que sus datos solo se procesan en entornos attestados y conformes a políticas, eliminando una de las principales barreras para proyectos conjuntos de IA.
Para los usuarios finales, el beneficio es una mayor y más tangible seguridad de que sus datos personales no pueden ser accedidos por operadores, insiders u otros inquilinos de la nube mientras los sistemas de IA están en funcionamiento. También hace viables servicios de mayor valor — como asesoramiento de salud personalizado o asesoramiento financiero detallado — que antes se consideraban demasiado sensibles para ofrecerse a través de infraestructura en la nube.
Shadid se apoya en su experiencia como ingeniero de software para ilustrar uno de los riesgos menos discutidos. Los desarrolladores suelen pegar código propietario, archivos de configuración, claves API y tokens en herramientas de codificación de IA, a menudo con visibilidad limitada sobre cómo se almacenan o usan esos datos. La velocidad de la industria hace difícil evitar estas herramientas. Fue precisamente esta tensión — la necesidad de avanzar rápidamente mientras se es consciente de la exposición de la propiedad intelectual — la que lo llevó a construir ORGN, un entorno de desarrollo confidencial basado en principios de computación confidencial.
Por qué aún no ha llegado la adopción masiva
A pesar de que el 75% de las empresas han adoptado alguna forma, el estudio de IDC encontró que solo el 18% de las organizaciones han incorporado la computación confidencial en entornos de producción. Shadid identifica tres principales obstáculos: la complejidad de la validación de attestación, una percepción persistente de que la tecnología es de nicho y la escasez de ingenieros con las habilidades relevantes.
La validación de attestación, explica, es mucho más compleja en la práctica de lo que parece en papel. La evidencia de attestación llega en forma de estructuras binarias u objetos JSON que contienen mediciones, certificados y colaterales que deben analizarse, verificarse contra raíces del proveedor y validarse por su vigencia y revocación. Luego, los desarrolladores deben determinar qué se considera confiable — qué versiones de firmware, hashes de imágenes y mediciones de aplicaciones son aceptables — e integrar esa lógica en su propio sistema de control o gestión de claves. Los principales proveedores de nube, como AWS, Azure y Oracle, ya ofrecen computación confidencial a costos comparables a la infraestructura estándar, por lo que la barrera no es el acceso ni el precio. Es la profundidad de ingeniería necesaria para operacionalizar correctamente la attestación.
Shadid opina que una adopción más amplia dependerá de tres fuerzas convergentes. Primero, la validación de attestación debe volverse mucho más accesible, ya sea mediante estandarización o mediante herramientas de código abierto que abstraigan la complejidad para los equipos de desarrollo. Segundo, la presión regulatoria seguirá impulsando la adopción, como ya lo hace DORA — si otros marcos en diferentes sectores siguen una trayectoria similar, el caso de negocio para la computación confidencial será cada vez más difícil de ignorar. Tercero, y quizás más fundamental, la conciencia pública sobre qué sucede con los datos dentro de los sistemas de IA debe crecer. La mayoría de las personas, sostiene Shadid, no tiene una idea clara de qué ocurre cuando envían una solicitud a una herramienta de IA para consumidores. Una mayor conciencia sobre esa exposición — entre desarrolladores y usuarios en general — generaría la presión social que aceleraría la adopción mucho más que los argumentos técnicos por sí solos.
De cara al futuro, sugiere que si la computación confidencial y la ejecución verificable se convierten en infraestructura predeterminada, la forma en que se diseñan, venden y gobiernan los servicios de IA cambiará sustancialmente. Los clientes recibirían evidencia criptográfica de cómo se manejaron sus datos en lugar de garantías políticas, permitiendo a las empresas demostrar cumplimiento a reguladores y juntas en términos concretos en lugar de documentales. La analogía que hace Shadid es con el cifrado de almacenamiento y red, que pasó de ser una medida de seguridad opcional a una línea base universal en un período relativamente corto. La dirección para la ejecución confidencial, argumenta, es la misma — y una vez que llegue, cada inferencia, cada ajuste fino y cada transferencia de datos llevará una attestación criptográfica, haciendo que la integridad del proceso sea un hecho verificable en lugar de una confianza institucional.