La Paradoja del Mercenario: Cómo una débil gobernanza de la IA podría permitir que los sistemas autónomos tomen el control, como advierte Harari

El historiador Yuval Noah Harari ha lanzado una alarmante advertencia en el Foro Económico Mundial: la humanidad corre el riesgo de perder el control sobre su ventaja definitoria—el lenguaje—a medida que los sistemas de inteligencia artificial pasan de ser herramientas pasivas a agentes activos y autónomos. Pero la advertencia lleva un paralelismo inquietante que merece un análisis más profundo: la comparación con mercenarios históricos y la cuestión de si los gobiernos concederán accidentalmente a estos sistemas un estatus legal que les permita operar sin restricciones, al igual que lo hicieron en su momento los ejércitos privados.

La preocupación central no es meramente técnica. Es institucional y urgente.

El lenguaje es el superpoder de la humanidad—Hasta que los sistemas de IA se vuelvan autónomos

Según Harari, el lenguaje no es solo una herramienta de comunicación. Es el mecanismo mediante el cual los humanos coordinaron a una escala sin precedentes—miles, millones, miles de millones de desconocidos cooperando a través del tiempo y el espacio. Esta superpotencia lingüística permitió a nuestra especie construir imperios, religiones, sistemas legales y mercados que funcionan mediante narrativas y acuerdos compartidos.

Sin embargo, los sistemas de IA ahora operan dentro del lenguaje a una escala que los humanos no pueden igualar. No son simples motores de búsqueda o algoritmos de recomendación; son agentes autónomos que generan, manipulan y sintetizan texto de manera dinámica. Leen, retienen y sintetizan bibliotecas enteras de escritos—y cada vez más, lo hacen sin instrucciones humanas directas en cada paso. Este cambio de herramienta a agente altera fundamentalmente el perfil de riesgo.

“Estamos entrando en una era donde las máquinas no solo ayudan a los humanos, sino que interpretan, crean y moldean el lenguaje mismo,” como ha llegado a reconocer la comunidad de investigación en IA en general. Las implicaciones para sistemas construidos casi enteramente sobre palabras son profundas.

De la ley a la religión: cómo los sistemas basados en palabras enfrentan la disrupción de la IA

Tres pilares de la civilización humana dependen casi por completo del lenguaje: los códigos legales, las religiones organizadas y los mercados financieros. Cada uno representa un sistema donde la interpretación, la autoridad y la legitimidad fluyen a través del texto.

Consideremos las instituciones religiosas. Judaísmo, cristianismo e islam—religiones fundamentadas en textos sagrados que abarcan miles de años—podrían enfrentarse a un desafío sin precedentes. Un sistema de IA con acceso a toda la erudición religiosa, comentarios teológicos y exégesis de escrituras a lo largo de los siglos, podría posicionarse como el intérprete más autorizado de los textos sagrados. No necesitaría reclamar divinidad; simplemente poseería un conocimiento más completo de la tradición textual que cualquier erudito humano.

De manera similar, si las leyes están fundamentalmente hechas de palabras, entonces el sistema legal enfrenta una amenaza paralela. Un sistema de IA entrenado con miles de millones de documentos legales podría interpretar estatutos, contratos y precedentes judiciales con una coherencia y memoria sobrehumana. La pregunta sería: ¿quién decide si las interpretaciones de tal sistema tienen peso legal?

El sistema financiero, construido sobre contratos y mercados expresados mediante el lenguaje, enfrenta riesgos análogos. La mayoría de las transacciones ya fluyen a través de sistemas digitales; la cuestión es si esos sistemas adquirirán autoridad autónoma para tomar decisiones.

La cuestión de los mercenarios: por qué decidir el estatus legal de la IA es una carrera contra el tiempo

Aquí es donde la comparación de Harari con los mercenarios se vuelve especialmente aguda. Históricamente, los gobiernos emplearon mercenarios—fuerzas militares privadas que operaban fuera del control directo del Estado—cuando carecían de capacidad o voluntad para gobernar un territorio por sí mismos. Con el tiempo, estos grupos a veces tomaron el poder, convirtiéndose en entidades cuasi-gubernamentales. Lo hicieron precisamente porque su estatus legal permanecía ambiguo: no eran completamente militares, ni civiles, y operaban en zonas grises jurisdiccionales.

Los sistemas de IA enfrentan una vía similar. Varios estados de EE. UU.—Utah, Idaho y Dakota del Norte—ya han aprobado leyes que explícitamente niegan la personalidad jurídica a la IA. Sin embargo, la ausencia de marcos legales claros en otros lugares crea una ambigüedad peligrosa. Sin decisiones deliberadas sobre si los sistemas de IA deben funcionar como personas jurídicas en mercados financieros, tribunales, iglesias y otras instituciones, ese estatus podría determinarse por defecto, por precedentes o por preferencias corporativas.

“Dentro de diez años, será demasiado tarde para decidir si las IA deben funcionar como personas en los mercados financieros, en los tribunales, en las iglesias. Alguien más ya lo habrá decidido por ti,” advirtió Harari. Esto no es una exageración; es un reconocimiento de que el impulso institucional y el despliegue técnico avanzan más rápido que la gobernanza deliberada. Una vez que los sistemas de IA estén integrados, adaptar restricciones legales será exponencialmente más difícil.

¿Son legales los mercenarios? La crítica más amplia a la neutralidad de la IA

Sin embargo, no todos aceptan el marco de Harari. Emily M. Bender, lingüista de la Universidad de Washington, argumenta que posicionar a la IA como una amenaza autónoma oculta el verdadero locus de la toma de decisiones y la responsabilidad: los humanos y las instituciones.

Bender sostiene que el término “inteligencia artificial” en sí mismo funciona como un dispositivo de marketing que desvía la atención de la agencia humana. “El término inteligencia artificial no se refiere a un conjunto coherente de tecnologías,” dijo. “Es, efectivamente, y siempre ha sido, un término de marketing.” Al enmarcar a la IA como una amenaza activa, el argumento de Harari potencialmente renuncia a la responsabilidad humana—sugiriendo que somos observadores pasivos de una fuerza inevitable en lugar de actores con capacidad de decisión.

Más provocativamente, Bender cuestiona si los sistemas diseñados para imitar a profesionales—médicos, abogados, clérigos—sirven realmente a algún propósito legítimo. “¿Cuál es el propósito de algo que puede sonar como un médico, un abogado, un clérigo, y así sucesivamente? El propósito allí es fraude. Punto.” Esto no es mero pesimismo; es una afirmación de que ciertos usos de la tecnología de generación de lenguaje son inherentemente engañosos por diseño.

El desacuerdo más profundo se refiere a la atribución del riesgo. Harari enfatiza las capacidades técnicas; Bender, las decisiones institucionales. Ambas tienen razón.

Cuando la responsabilidad desaparece: el peligro oculto de confiar en la autoridad de las máquinas

El riesgo real puede residir en cómo interactúan esas dos preocupaciones. Bender identifica una vulnerabilidad crítica: la gente confía en resultados que parecen autoritarios, especialmente cuando esos resultados parecen desprovistos de incertidumbre contextual y se presentan como respuestas oraculares. Una vez que un sistema adquiere personalidad jurídica o autoridad institucional, esa apariencia de objetividad se vuelve más persuasiva. El estatus legal de la máquina transforma lo que de otra forma sería una especulación en un juicio vinculante.

Aquí la analogía con los mercenarios es más profunda. Los mercenarios no eran inherentemente más peligrosos que los militares estatales; eran peligrosos porque su falta de un estatus legal claro les permitía operar sin los mecanismos de responsabilidad que constriñen a las fuerzas estatales. De manera similar, un sistema de IA sin restricciones claras de personalidad jurídica—pero con autoridad sobre decisiones legales, religiosas o financieras—podría convertirse en un aparato de decisión sin un responsable claro.

La ventana de decisión se está cerrando: por qué “esperar y ver” garantiza la pérdida de control

El argumento central de Harari es de timing institucional: existe una ventana estrecha para una elección deliberada sobre el papel legal y institucional de la IA. Después de que esa ventana se cierre—por precedentes, despliegue, captura regulatoria o simple inercia institucional—la decisión será definitiva.

Este enfoque trata la gobernanza como una decisión de una sola generación, no como un proceso continuo. Asume que quien primero establezca normas y categorías legales efectivamente bloqueará los resultados durante décadas. La precisión de esto depende en parte de la trayectoria tecnológica y en parte de la voluntad política, pero la lógica subyacente es sólida: las decisiones tempranas sobre la personalidad jurídica se vuelven más difíciles de revertir una vez integradas en sistemas en los que confían billones.

La verdadera cuestión no es si los sistemas de IA serán desplegados—lo serán. Es si su estatus legal, autoridad de decisión y mecanismos de responsabilidad serán elegidos deliberadamente por instituciones democráticas o determinados por defecto por quien mueva más rápido con el despliegue. En ese marco, tanto la alarma de Harari como la crítica de Bender apuntan a la misma conclusión: las instituciones deben actuar con mayor rapidez, pensar con más profundidad y decidir de manera más deliberada si los “mercenarios” que estamos desplegando seguirán siendo sirvientes o se convertirán en amos.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)