Dentro del «nuevo orden mundial», donde EE.UU. y Trump buscan mantener la hegemonía, las tecnologías y la IA son espacios estratégicos de influencia y control. En esta lógica, el caso de Chile y el cable submarino entre Hong Kong y Valparaíso no es un detalle técnico: es un frente de disputa. La revocación de visas a funcionarios chilenos por presionar contra el proyecto lo confirma (ver: www.ciperchile.cl, interferencia.cl?.
La dimensión política de la IA se impone: las «líneas rojas» y la «ética» ceden cuando entran en juego intereses estratégicos. Ninguna IA es neutra políticamente; ninguna es «ética» o «no ética» de forma absoluta. Sus prácticas dependen de quién las controla, bajo qué presión regulatoria y con qué modelo de negocio.
En este marco, Claude (Anthropic) ha mostrado cierta responsabilidad en el manejo de datos frente a ChatGPT, pero tampoco es confiable: en 2025 modificó su política de privacidad para usar conversaciones de usuarios en el entrenamiento de sus modelos (ver: www.uoc.edu, www.infobae.com).
Esa tensión entre discurso ético y práctica comercial fue justamente lo que llevó a Trump y al Pentágono a romper con Anthropic: la empresa se negó a eliminar salvaguardas sobre vigilancia masiva y armas autónomas Ver: fortune.com, techpolicy.press), y horas después, OpenAI anunciaba un nuevo acuerdo con el Pentágono para reemplazar a Claude (ver: fortune.com), ChatGPT, que en noviembre de 2025 expuso datos de usuarios de su API vía un proveedor externo (ver: www.bankinfosecurity.com), se posicionó como alternativa operativa. No es un caso aislado: Google, xAI y otras mantienen contratos con el gobierno de EE.UU. (ver: www.xtb.com, techpolicy.press).
Y lo más grave: muchas de estas tecnologías han estado detrás de operaciones militares controversiales, desde la selección de objetivos en Gaza hasta la captura de Nicolás Maduro, donde Claude fue usado vía Palantir para procesar inteligencia clasificada, (ver: www.latercera.com, www.pagina12.com.ar).
Esto exige ser cada vez más cautelosos en el uso crítico de las IA, resguardando privacidad y libertad. «Por eso valoramos esfuerzos de IA con software libre y desarrollo regional, como Latam-GPT, BLOOM o Sabia: no son solo alternativas técnicas, son apuestas por soberanía tecnológica. Cuando un modelo se entrena con datos latinoamericanos, bajo gobernanza compartida y con licencias que permiten adaptación local, estamos construyendo algo más que algoritmos: estamos disputando quién define el futuro de la inteligencia en nuestra región. En un contexto donde la IA hegemónica opera como extensión del poder geopolítico, cada token entrenado en Valparaíso, São Paulo o Buenos Aires es un acto de autonomía.»