Inteligencia artificial, soberanÃa y poder: la tercera vÃa tecnológica es posible
21 de febrero de 2026
¿Cómo se ejerce soberanÃa tecnológica en la era del algoritmo? Es la pregunta que está latente y que algunos paÃses intentan discutir en un contexto que se complejiza apresuradamente.
La convocatoria sobre el impacto de la IA en la cumbre de Nueva Delhi reúne a figuras clave de la industria como Sam Altman (OpenAI), Sundar Pichai (Google) y Jensen Huang (Nvidia), junto a líderes políticos como Emmanuel Macron, Pedro Sánchez y Luiz Inácio Lula da Silva. No es una foto menor: en esa convergencia se juega algo más que la regulación de una tecnología. Se discute poder.
Estados, empresas, sociedad civil y múltiples actores tienen hoy la oportunidad de impulsar un nuevo movimiento no alineado en torno a principios fundamentales: una IA abierta, adaptativa y colaborativa. La inspiración remite al Movimiento de Países No Alineados que, en plena Guerra Fría, buscó esquivar la lógica binaria de los años cincuenta y sesenta. La pregunta que late es similar, aunque el campo de batalla haya cambiado: ¿quién controla y ejerce influencia sobre la inteligencia artificial? En otras palabras, ¿cómo se ejerce la soberanía tecnológica en la era del algoritmo?
La concentración de poder en las big tech ha desplazado el eje de la discusión. En lugar de un modelo centrado en el impacto social y la democratización del acceso al código —los lenguajes y arquitecturas que sostienen los modelos—, la agenda corre el riesgo de quedar atrapada entre proteccionismos y alianzas coyunturales. Antes de definir dónde, cuándo y cómo los países pueden ejercer control y capacidad de acción para desarrollar una IA que sirva a intereses humanos y públicos, conviene partir de un concepto clave: el stack, o pila tecnológica.
Stack o pila tecnológica
Una pila de IA es el conjunto de tecnologías, entornos e infraestructuras que hacen posible crear y utilizar sistemas de inteligencia artificial. Es, en términos simples, la superposición organizada de componentes que sostienen todo el ciclo de vida de la IA: desde los datos hasta la aplicación final.
Cada capa cumple una función específica —gestión de datos, entrenamiento de modelos, despliegue— y permite identificar dependencias, asignar recursos y resolver problemas de manera sistemática. Esta mirada modular aporta claridad, especialmente en equipos multidisciplinarios, porque ofrece una comprensión compartida de cómo interactúan los distintos componentes.
Las aplicaciones de IA no atraviesan todas las capas del mismo modo, pero se apoyan en ellas. Plataformas empresariales como OpenShift, basadas en Kubernetes[1]. y diseñadas para gestionar aplicaciones en contenedores a gran escala, pueden intervenir en prácticamente todas las instancias de esa pila.
En términos generales, el stack se descompone en cuatro capas:
- Infraestructura: el hardware —como las GPU producidas por Nvidia— y las plataformas en la nube donde operan los sistemas, ofrecidas por proveedores como Amazon Web Services o Google Cloud.
- Modelo: los modelos de lenguaje y sus herramientas de explotación, como GPT-4 (OpenAI), Claude (Anthropic), Llama (Meta) o Gemini (Google/DeepMind).
- Datos: los conjuntos de información que entrenan y alimentan los modelos.
- Aplicación: el punto de contacto entre el modelo y el usuario, ya sea en entornos generales o profesionales.
Para casi todos los países, controlar verticalmente cada una de estas capas es inviable. No sólo por los costos de inversión, la disponibilidad energética o el know how técnico, sino porque el acceso mismo está desigualmente distribuido y concentrado en manos de las big tech.
Los propietarios de estas tecnologías hacen extremadamente difícil que un país pueda decidir que desea disponer soberanamente de sus propios semiconductores, centros de datos, modelos y aplicaciones. Y, sin embargo, los países necesitan una IA soberana: una inteligencia artificial singular, anclada en su historia y su cultura, adaptada a necesidades y resultados de interés público.
¿Cómo lograrlo?
Primero, reconociendo que los stacks abiertos —no propietarios— son más inteligentes y más resilientes. La apertura en IA implica modelos accesibles para uso, estudio, modificación y compartición; combina ciencia abierta, innovación abierta, datos y fuentes abiertas. Esa arquitectura permite capturar el valor social, económico y político de la IA.
Segundo, asumiendo que ningún país —con excepción de China y Estados Unidos— puede aspirar a un stack completamente soberano si por soberanía entendemos producción y control total sobre cada capa. El objetivo realista no es un stack nacional autosuficiente, sino un stack global, abierto, resistente, adaptable a las necesidades específicas de cada país y, sobre todo, no alineado.
Otra definición de soberanía
Cuanto más abierto y diversificado es el stack, más resiliente resulta. Cuanto más cerrado, más dependiente de las decisiones de unos pocos tecnooligarcas y más frágil la posición de cualquier país.
Ser soberano no significa ejercer propiedad total sobre una tecnología —muchas veces ese ideal es retórico e impracticable—. Toda soberanía implica compartir lo que puede compartirse y poseer lo que puede poseerse. Construir centros de datos es una condición necesaria, pero no suficiente. Importa también cómo se usan esas infraestructuras, quién accede a ellas y qué calidad y disponibilidad tienen los datos que las alimentan.
El impulso soberanista en IA es legítimo: gobiernos y sector privado advierten que depender de las big tech constituye una vulnerabilidad crítica, ya que modelan la vida cotidiana y el trabajo. Pero la soberanía debe ir más allá de la seguridad nacional o la mera competitividad. Debe priorizar tecnologías abiertas, respetuosas de la privacidad, que amplíen la capacidad de acción de los usuarios. Sólo así las personas podrán ejercer sobre sus datos un control similar al que hoy detentan las empresas.
Los detractores sostienen que la soberanía obstaculiza la innovación y crea barreras. Sin embargo, depender de proveedores únicos, quedar atrapado en marcos contractuales inmodificables y aceptar decisiones unilaterales no es innovar: es consolidar monopolios. Y los monopolios, históricamente, sofocan la innovación.
Tomar decisiones correctas
La evolución reciente ha llevado a los modelos de IA a un punto cercano a la comoditización. Existen diferencias en la frontera tecnológica, pero para muchas aplicaciones específicas de interés público el modelo es menos determinante que la capa de producto. El valor se materializa en la aplicación: en los servicios y soluciones que impactan la vida cotidiana.
Para generar mejoras tangibles, los países necesitan acceso a datos nacionales e internacionales pertinentes, de calidad y accesibles, así como a soluciones listas para usar sobre plataformas compartidas, globales y abiertas.
Para los países medianos —los del sur global— la soberanía no implica reconstruir toda la cadena de valor de la IA puertas adentro. Debe pensarse como un eje que va de la fragilidad a la adaptación local. Cuanto más abierta y diversificada la pila, mayor capacidad adaptativa; cuanto más cerrada, mayor dependencia de decisiones tomadas en los centros de poder tecnológico occidental.
Se trata de identificar qué elementos de la pila —hardware, infraestructura, modelos, aplicaciones— deben y pueden ser abiertos; cuáles requieren cooperación internacional; y cuáles necesitan desarrollo local para que ese desarrollo tenga éxito.
Los Estados deben asumir un rol activo como modeladores de mercado: definir qué capas pueden aspirar a soberanía realista, cuáles pueden aceptarse como dependencias temporales y cuáles deben ser necesariamente de código abierto. En ciertos casos, ejercer soberanía implica abrir el mercado —como ocurrió con políticas de datos abiertos y banca abierta en el Reino Unido— y no cerrarlo.
Desarrollar una oferta comercial global para un stack soberano, que garantice acceso amplio a herramientas y datos para crear nuevos modelos, es una tarea central de esta y de las próximas cumbres sobre IA.
Geopolítica de la IA: hacia un no alineamiento
Para avanzar en esa dirección, el campo de la IA necesita tres condiciones.
Primero, plataformas que promuevan intercambios internacionales, como Current AI, lanzada hace un año en la Cumbre Acción IA en París, que articula desarrolladores, sector privado, gobiernos y fundaciones con el objetivo de construir una visión colectiva e independiente de la IA. Esto exige recursos y talento acordes al desafío.
Segundo, herramientas e inversiones en código abierto y en innovación en datos que sostengan este reajuste. Existen organizaciones con experiencia en software abierto capaces de aportar conocimiento estratégico.
Tercero, nuevas formas de cooperación internacional que, en lugar de profundizar rivalidades, permitan a los países medianos unirse para construir un stack resistente, abierto y no alineado. Aquí, el término «alineamiento» es geopolítico y no debe confundirse con el alineamiento técnico en seguridad de IA. La tesis es clara: una IA capaz de responder a contextos históricos, culturales y lingüísticos específicos sólo puede prosperar fuera de la órbita monopólica de los gigantes tecnológicos y abandonando el mito de un stack completamente nacional.
Producir una IA de interés general, orientada al servicio humano, exige un no alineamiento geopolítico.
En este escenario, la serie de cumbres sobre IA desempeña un papel crucial. Si logran coherencia y continuidad, en lugar de fragmentar la gobernanza global, pueden dar forma a una nueva alianza.
La idea dialoga con el llamado formulado por Mark Carney en el Foro de Davos a conformar una alianza de potencias medias. Allí sostuvo: «Sabemos que el antiguo orden no volverá. No deberíamos lamentarlo. ¡La nostalgia no es una estrategia!».
No se trata de no elegir bando. Se trata de crear condiciones para que florezcan asociaciones múltiples y mutuamente beneficiosas. Podría emerger un movimiento de países medianos en materia de inteligencia artificial donde la soberanía pase, precisamente, por el no alineamiento.
La tercera vía en IA no reproduce el viejo esquema neutralista: busca tejer múltiples conexiones para construir una inteligencia artificial abierta, adaptativa y libre de cualquier forma de dominio tecnológico bajo el yugo de las big tech.
Nota originalmente publicada en Esfera Comunicacional, cedida por el autor de la nota.


