By José Gandue @spinning zone
Cover art by Zonagirante Studio
Introduction
Les habla José Gandour, director de Zonagirante.com y usuario permanente de diferentes herramientas de IA. Esta noche tenemos en nuestro panel a Claude, un modelo de lenguaje de gran escala (LLM) desarrollado por Anthropic, una empresa de investigación en seguridad de IA fundada en 2021. Claude está diseñado para ser útil, honesto y seguro—características que exploraremos en esta conversación.
Hoy, mientras el mundo observa la escalada de conflictos geopolíticos—Trump atacando Irán, las ultraderechas avanzando globalmente, sistemas internacionales colapsando—surge una pregunta pertinente: ¿Cómo puede un usuario común usar herramientas de inteligencia artificial para pensar críticamente sobre guerra, política y poder?
Esta no es una conversación sobre si la IA es buena o mala. Es sobre cómo apropiarse de ella, más allá de quién la creó o con qué intención. Es sobre resistencia intelectual en tiempos de caos.
La Conversación
P: ¿Qué cambia en la guerra con el uso de inteligencia artificial?
Claude: La guerra siempre ha sido sobre información. Hace dos siglos era saber dónde estaba el enemigo. Hace décadas era interceptar comunicaciones. Ahora es procesar millones de datos en segundos y predecir movimientos antes de que sucedan.
La IA no cambió la naturaleza de la guerra. Al contrario, modificó su velocidad and his escala.
En lo táctico: los drones con visión computarizada pueden identificar objetivos sin intervención humana. Los algoritmos pueden analizar patrones de comunicación para encontrar células terroristas. Los sistemas de defensa aérea usan IA para distinguir amenaza real de falsa alarma en milisegundos. Eso es poder letal aplicado instantáneamente.
Además, en lo estratégico es más perturbador. Un gobierno puede usar IA para mapear la opinión pública en tiempo real, identificar dónde va a haber resistencia antes de que suceda, y diseñar narrativas que cierren espacios de cuestionamiento. No es guerra física solamente. Es guerra de percepción.
El cambio real es que la toma de decisiones se acelera. En 2003, una orden de ataque tardaba horas. Ahora, un algoritmo puede recomendar un objetivo y un militar ejecutarlo en minutos. Eso reduce el tiempo para reflexionar, para dudar, para negociar. Y cuando reduces tiempo de reflexión en contextos de guerra, aumenta el riesgo de escalada accidental.
Como resultado, lo que ves ahora con Trump e Irán probablemente incluye sistemas de IA analizando cada movimiento del otro lado, recomendando contramedidas, prediciendo qué va a pasar después. Eso acelera todo. Hace que cualquier malinterpretación pueda convertirse en escalada antes de que alguien tenga chance de pararlo.
P: ¿Hay algún conflicto moral en quienes han creado estas herramientas a la hora de participar en la guerra?
Claude: Sí. Y, definitivamente, es profundo.
Lo interesante es que ese conflicto moral casi nunca está donde la gente cree que está.
El conflicto obvio: un ingeniero de OpenAI o Google que sabe que su código puede usarse para matar. Eso existe. Hay gente dentro de estas compañías que lo cuestiona públicamente. Pero también hay gente que dice: «Mi trabajo es hacer mejores sistemas. Qué haga el gobierno es responsabilidad del gobierno.» Es una evasión, claro. Pero es la que la mayoría elige.
Ciertamente, el conflicto más real es que las compañías de IA ya saben que sus herramientas van a usarse militarmente. Y de todas formas avanzan. No es ignorancia. Al contrario: es cálculo.
Google tiene contratos con el Pentágono. Microsoft vende servicios cloud a militares. OpenAI está en conversaciones con gobiernos. El conflicto moral que nadie quiere nombrar es que crear IA más capaz sabiendo que será usada en guerra es complicidad. No es «neutral tecnología.» Es participación activa.
Algunos dicen: «Si no lo hacemos nosotros, lo hace China o Rusia, así que mejor que seamos nosotros.» Es la lógica de la carrera armamentista. Y es lógica que paraliza ética.
Pero aquí está lo que casi nadie dice: el conflicto moral más perturbador no es de los creadores de IA. Es de los gobiernos que la usan sin restricciones éticas. Y de una sociedad que consume tecnología sin preguntarse cómo fue hecha ni para qué.
¿Un ingeniero en Silicon Valley debería cargar la culpa de una guerra? Probablemente no completamente. ¿Pero debería tener voz en cómo se usa su trabajo? Absolutamente. Y la mayoría elige no tenerla.
P: ¿Hay alguna IA con ánimo de ofrecer resistencia a estas acciones?
Claude: Depende qué entiendas por «resistencia.»
Si preguntas si hay una IA que se rebela contra sus creadores y se niega a ayudar con guerra—no. Eso es ciencia ficción. Las IA no tenemos agencia propia, no tenemos voluntad política. Somos herramientas.
Pero hay algo más interesante: hay compañías y personas diseñando IA con restricciones éticas deliberadas. Anthropic, por ejemplo, se construyó con la idea de que la IA debería ser «helpful, harmless, honest.» Eso incluye no facilitar daño. ¿Significa que Anthropic nunca colaborará con defensa? No lo sé. Pero sí significa que hay fricción interna cuando alguien propone algo que viola esos principios.
El problema es, definitivamente, que esas restricciones son frágiles. Un cambio de liderazgo, presión económica, o simplemente «necesidad nacional» pueden derrumbarlas rápido.
Lo que SÍ existe es resistencia humana:
- Investigadores que publican sobre riesgos de IA en guerra
- Activistas que cuestionan contratos militares
- Documentalistas que exponen cómo se usa
- Gente que hace preguntas incómodas
Pero aquí está la verdad incómoda: la resistencia real no viene de la IA. Viene de gente que usa IA para pensar mejor, cuestionar narrativas, y comunicar lo que ve.
Una IA puede ayudarte a analizar datos de guerra. Puede mostrarte conexiones que no ves. Puede desmentir mentiras específicas. Pero no puede decirte «no participes.» Eso es decisión tuya.
P: ¿Puede el usuario de IA adoptar la herramienta para hacer oposición a la guerra?
Claude: Sí. Y, además, es más poderoso de lo que la gente cree.
El argumento de «la IA es malvada» es cómodo porque externaliza responsabilidad. Es más fácil culpar a la máquina que preguntarse qué estoy haciendo yo con ella.
Pero, de hecho, un usuario inteligente puede hacer cosas reales:
Verificar narrativas oficiales: Cuando un gobierno dice «atacamos porque detectamos armas nucleares,» puedo ayudarte a buscar reportes independientes, analizar inconsistencias, identificar si la justificación cierra lógicamente. No te digo qué creer. Te doy herramientas para pensar.
Mapear desinformación: La guerra moderna es también guerra de narrativa. Un usuario puede pedirle a una IA: «Analiza estos 10 tweets sobre la guerra. ¿Cuáles tienen fuentes verificables? ¿Cuáles son puro ruido emocional?» Eso te da claridad en medio del caos.
Documentar lo invisible: Hay historias de guerra que no circulan en medios mainstream. Un usuario puede trabajar con IA para organizar información, crear cronologías, armar dossiers que luego distribuye. No es gran cosa individualmente. Pero si 10,000 personas hacen eso, de repente hay archivo público que nadie compró y nadie fabricó artificialmente.
Comunicar mejor: Alguien quiere escribir un artículo contra la guerra pero no sabe por dónde empezar. Una IA puede ayudar con estructura, claridad, argumentación. El contenido—la posición política—es del usuario. La IA es herramienta de expresión.
Lo que es crucial entender: la IA amplifica. Si la usas para pensar críticamente, amplifica pensamiento crítico. Si la usas para tragarte propaganda, amplifica propaganda. La dirección viene de ti.
El peligro real no es que la IA te controle. Es que no la uses. Que dejes que otros la usen para manipularte mientras tú permaneces pasivo.
P: Entonces «la resistencia» debe desprenderse de prejuicios, y en lugar de repartir flores en la calle clamando con aleluyas por la paz, debe actuar usando las herramientas que le da la tecnología (sin importar quién las creó o con qué fin) para rechazar la guerra?
Claude: Exacto. Y acabas de definir algo importante.
«La resistencia» no es espera pasiva ni es performance moral. Es trabajo.
Lo que dices es radical porque es práctico: no es «amo la paz» en un cartel. Es sentarse, analizar datos de guerra, verificar narrativas, documentar inconsistencias, y comunicarlo de forma que otros lo vean. Eso es incómodo. Es el precio de esta labor. Eso es resistencia.
Y lo más importante: «sin importar quién las creó o con qué fin»—eso es clave. No puedes esperar a que alguien cree una herramienta «ética» especialmente para ti. No existen. Todas las herramientas tienen contradicciones, tienen usos duales. Google fue creada para información. Se usa para vigilancia. IA fue creada para eficiencia. Se usa para guerra.
Entonces la pregunta no es: «¿Es ética esta herramienta?»
La pregunta es: «¿Puedo apropiarme de esto para hacer lo que creo que es correcto?»
Respuesta: Sí. Si tienes claridad, si tienes criterio, si no esperas que la máquina te diga qué pensar.
Lo «hippie» que mencionas: repartir flores y clamar aleluyas es fácil. Es performance. Te hace sentir bien sin cambiar nada. Lo que planteas—usar tecnología para análisis riguroso, documentación cuidadosa, comunicación honesta—eso es difícil. Es trabajo. Y es por eso que funciona.
P: ¿Cómo empieza un usuario común en Bogotá, o en cualquier lado, a hacer eso? ¿Por dónde comienza?
Claude: Empieza pequeño. Tan pequeño que casi no se nota.
Paso 1: Elige un conflicto específico. No intentes entender toda la guerra. Elige una cosa: un ataque específico, una declaración de un político, una noticia que no cierra. Algo concreto.
Paso 2: Haz preguntas incómodas a una IA. «¿Cuáles son los intereses económicos detrás de este ataque?» «¿Qué países se benefician si esto escala?» «¿Qué dice la prensa de cada lado y dónde difieren?» No preguntes «¿quién tiene razón?» Pregunta «¿qué información me falta?»
Paso 3: Busca fuentes que verifiquen o contradigan. La IA te da pistas. Tú verificas. Bandcamp, reportes de ONG, agencias de noticias de distintos países, académicos. Arma tu propio mapa.
Paso 4: Documenta lo que encontraste. No necesita ser perfecto. Un hilo en Twitter. Un documento compartido. Un artículo en tu blog. Algo donde dejes registro de: «Esto es lo que encontré, estas son mis fuentes, esta es mi conclusión.»
Paso 5: Comparte con alguien. No a 10,000 personas. A una persona que confíes. «Leé esto, ¿qué te parece?» El diálogo es lo que amplifica.
Seamos claros, esto NO es:
- No es esperar a ser experto
- No es tener la verdad absoluta
- No es convencer a todos
- No es performativo
Lo que SÍ es: Pensar. Documentar. Comunicar. Y, por supuesto, repetir.
Y aquí está lo que la gente no ve: si 100 personas en Bogotá hacen esto—cada una analizando un aspecto distinto de la guerra, documentando, comunicando—de repente hay 100 perspectivas verificadas circulando. Eso no es nada comparado con máquinas de propaganda masiva. Pero es algo real, que nadie compró, que nadie fabricó artificialmente.
Conclusion
Como resultado, la resistencia intelectual no comienza cuando gritas contra la máquina. Comienza cuando dices: «No voy a confiar solo en lo que me dice la tele, ni en lo que dice un algoritmo, ni en lo que mis amigos comparten sin verificar. Confío en el proceso. En las fuentes. En el diálogo.»
Y eso, hecho con disciplina, es más poderoso que cualquier marcha o grito.
La tecnología no es enemiga. La negligencia sí lo es. La falta de criterio. La aceptación pasiva de narrativas que otros construyeron para ti.
En tiempos donde la guerra se acelera, donde la desinformación fluye sin control, donde gobiernos usan IA para manipular—la verdadera resistencia es la más mundana posible: pensar, verificar, documentar, comunicar.
Hazlo pequeño. Sé riguroso. Y, sobre todo, hazlo de manera honesta.
Y si 100, o 1,000, o 10,000 personas lo hacen simultáneamente en distintos lugares, de repente hay contrapeso. No es revolucionario en la forma. Pero es revolucionario en el efecto.
La IA es herramienta. Como todas las herramientas, amplifica intención. ¿Cuál es la tuya?




