LA INTELIGENCIA ARTIFICIAL EN LA ESTRATEGIA MILITAR

Introducción

La inteligencia artificial ha dejado de ser un multiplicador técnico para convertirse en un factor estructurante del poder militar. No introduce simplemente nuevas armas o sistemas más eficientes; altera la relación entre velocidad, decisión, control humano y responsabilidad política. En este sentido, la IA no se suma a la historia militar como una innovación más, sino como el detonante de una nueva Revolución en los Asuntos Militares, comparable en profundidad —aunque distinta en naturaleza— a la nuclear o al stealth.

A diferencia de revoluciones anteriores, la IA no se concentra en un único dominio. Penetra todos: tierra, mar, aire, espacio, ciberespacio y, de forma creciente, el dominio cognitivo. Automatiza el análisis, acelera la decisión, aprende del entorno y, en determinados contextos, desacopla la acción del juicio humano directo. De ahí surge la figura central de este nuevo paradigma: el “centauro digital”, la integración humano–máquina como unidad operativa, donde la frontera entre apoyo a la decisión y delegación de la decisión se vuelve difusa.

Este desplazamiento tiene consecuencias estratégicas profundas. Por un lado, promete ventajas operativas decisivas: mayor velocidad, precisión, anticipación y coordinación. Por otro, introduce riesgos sistémicos inéditos: escaladas no intencionadas, pérdida de control político sobre el uso de la fuerza, erosión de la responsabilidad jurídica y una guerra que puede desarrollarse a ritmos incompatibles con la deliberación humana. La cuestión ya no es solo qué puede hacer la IA en el campo de batalla, sino qué tipo de guerra produce.

Además, la IA militar no se juega únicamente en plataformas autónomas o sistemas letales. Se libra en el terreno de los datos, en la capacidad de entrenar algoritmos con información relevante; en la guerra cognitiva, donde la percepción puede ser tan decisiva como el fuego; y en la gobernanza internacional, donde las normas van siempre por detrás de la ventaja estratégica. En este contexto, la ausencia de tratados vinculantes no es un vacío accidental, sino el reflejo de una competencia abierta por definir las reglas… o por operar sin ellas.

Este artículo aborda la inteligencia artificial en la estrategia militar desde una perspectiva estructural y no tecnocrática, articulando el análisis en seis partes interrelacionadas:

  1. La IA como catalizador de una nueva Revolución en los Asuntos Militares, y el concepto del “centauro digital” como núcleo operativo del nuevo paradigma.
  2. La autonomía letal y el dilema del mando y control, analizando cómo la delegación algorítmica tensiona la cadena de responsabilidad militar y jurídica.
  3. La dominancia de los datos como base del poder militar, explorando su dimensión geopolítica y su papel como recurso estratégico acumulativo.
  4. La guerra cognitiva, donde la IA actúa sobre percepciones, narrativas y cohesión social, debilitando la noción misma de realidad compartida.
  5. La paradoja de la velocidad, evaluando cómo la aceleración extrema del ciclo decisional puede socavar la estabilidad estratégica.
  6. La ética y la gobernanza de la IA militar, no como ideal normativo, sino como equilibrio inestable entre poder, seguridad y control político.
La inteligencia artificial no decide por sí sola el futuro de la guerra, pero reconfigura el terreno sobre el que se toman todas las decisiones. Comprender su papel estratégico exige ir más allá del entusiasmo tecnológico o del rechazo ético inmediato. Exige analizar cómo cambia la relación entre humanos, máquinas y violencia organizada.

1. Revolución en los Asuntos Militares (RMA) y el “centauro digital”

Cuando la ventaja ya no está en el arma, sino en la interacción

Las Revoluciones en los Asuntos Militares no se definen por la aparición de un arma concreta, sino por un cambio sistémico en la forma de concebir, organizar y ejercer la fuerza. La pólvora, la mecanización, el arma nuclear o el stealth transformaron el campo de batalla porque alteraron doctrinas, estructuras de mando y equilibrios estratégicos. La inteligencia artificial pertenece a esta misma categoría, pero introduce una novedad decisiva: no sustituye al combatiente, lo reconfigura.

En este nuevo paradigma emerge la figura del “centauro digital”: la unidad operativa formada por humano e IA, donde la máquina no actúa como simple herramienta pasiva, sino como socio cognitivo. La IA observa más rápido, correlaciona más variables, propone cursos de acción y anticipa escenarios. El humano valida, contextualiza y asume —al menos formalmente— la responsabilidad final. El poder no reside en uno u otro, sino en la calidad de la interacción.

De la superioridad tecnológica a la superioridad decisional

A diferencia de revoluciones anteriores, la IA no garantiza una ventaja decisiva por su mera posesión. Su impacto estratégico depende de cómo se integra en el ciclo decisional. Estados con menos recursos pueden acceder a capacidades avanzadas mediante software, datos abiertos, sensores comerciales o plataformas autónomas relativamente baratas. Esto introduce un efecto paradójico: la IA democratiza capacidades sofisticadas al tiempo que penaliza a quienes no logran integrarlas doctrinalmente.

El resultado es un desplazamiento de la superioridad clásica —numérica o tecnológica— hacia una superioridad decisional: quien observa antes, comprende mejor y actúa con mayor coherencia sistémica impone el ritmo del conflicto. En este sentido, la IA no “gana guerras”, pero define quién juega en ventaja desde el primer segundo.

Asimetría, enjambres y actores no estatales

La lógica del centauro digital favorece estrategias asimétricas. Sistemas autónomos de enjambre, coordinación algorítmica de drones, análisis predictivo de movimientos enemigos o generación automatizada de desinformación permiten a actores no estatales o Estados medianos erosionar ventajas tradicionales de potencias mayores.

Aquí la RMA impulsada por la IA no concentra poder de forma exclusiva; lo redistribuye de manera inestable. La barrera de entrada baja, pero la barrera de excelencia sube: no basta con tener IA, hay que entrenarla, alimentarla con datos relevantes y acoplarla a una doctrina coherente. El error estratégico no es quedarse atrás tecnológicamente, sino integrar mal.

El centauro como problema, no como solución

El centauro digital no es una síntesis armónica, sino una tensión permanente. A mayor automatización, mayor velocidad; a mayor velocidad, menor margen para la reflexión humana. El riesgo no es que la IA sustituya al comandante, sino que condicione su decisión de forma invisible, desplazando el juicio humano hacia una validación casi automática de recomendaciones algorítmicas.

Así, la RMA de la IA no plantea solo un problema de eficacia, sino de control estratégico. La ventaja decisiva puede surgir… o disiparse, si la interacción humano–máquina se convierte en dependencia acrítica.

La inteligencia artificial inaugura una Revolución en los Asuntos Militares porque transforma la forma de decidir, no solo la forma de combatir. El “centauro digital” se convierte en la unidad estratégica básica, pero su éxito no está garantizado: depende de doctrina, cultura organizativa y comprensión de los límites humanos y algorítmicos.

Con esta base, el siguiente paso es inevitable: analizar qué ocurre cuando esa interacción se desplaza del apoyo a la decisión hacia la delegación real de funciones críticas, especialmente en sistemas letales y en la cadena de mando.

2. Autonomía letal y el dilema del mando y control (C2)

Delegar no es lo mismo que decidir

El debate sobre los Sistemas de Armas Autónomos Letales (LAWS) suele concentrarse en una pregunta moral directa —¿puede una máquina decidir quitar una vida?—, pero esa formulación es incompleta. El problema estratégico real no reside solo en el acto final, sino en la delegación progresiva de funciones operativas que, acumuladas, reconfiguran la cadena de mando y control (C2). Cuando la IA prioriza objetivos, optimiza trayectorias, coordina enjambres o replanifica misiones en tiempo real, la decisión humana ya no desaparece: se diluye.

Del apoyo a la decisión a la decisión condicionada

En su fase inicial, la IA entra en el C2 como sistema de apoyo: filtra información, reduce ruido, propone cursos de acción. El salto cualitativo ocurre cuando la complejidad y la velocidad del entorno obligan al comandante a confiar sistemáticamente en la recomendación algorítmica. No hay una “decisión autónoma” explícita, pero sí un desacoplamiento decisional: el humano conserva la autoridad formal mientras el algoritmo estructura el espacio de lo decidible.

Este desplazamiento es crítico. A mayor velocidad —misiles hipersónicos, defensa antiaérea automatizada, guerra cibernética—, menor margen para la deliberación humana significativa. El riesgo no es la rebelión de la máquina, sino la automatización del juicio bajo presión temporal.

Responsabilidad (accountability) en un sistema distribuido

La cadena de responsabilidad clásica presupone claridad: un decisor humano, una orden, una acción. Los sistemas que aprenden y se adaptan rompen esa linealidad. ¿Quién responde cuando:

  • el algoritmo prioriza un objetivo con datos incompletos,
  • el sistema aprende de un entorno sesgado,
  • o la interacción entre múltiples IA produce un resultado no previsto?

La responsabilidad se fragmenta entre diseñadores, entrenadores de datos, operadores, comandantes y decisores políticos. Esta difusión de la culpa no es un vacío legal accidental, sino una consecuencia estructural de sistemas complejos adaptativos. El Derecho Internacional Humanitario fue diseñado para armas previsibles; la IA introduce comportamientos emergentes que desafían esa previsibilidad.

 El problema del control significativo

Muchos marcos normativos apelan al concepto de “control humano significativo”. La dificultad no es definirlo en abstracto, sino operacionalizarlo en escenarios donde milisegundos importan. Si el control humano implica comprender, anticipar y poder detener la acción, entonces en ciertos dominios de alta velocidad ese control se vuelve simbólico.

Aquí emerge una paradoja: cuanto más eficaz es el sistema autónomo, más tentador resulta retirar al humano del bucle para no convertirse en cuello de botella. La eficiencia militar empuja en una dirección; la responsabilidad política y ética, en la contraria.

C2 en conflicto: resiliencia vs. gobernabilidad

Desde una perspectiva estratégica, delegar en IA puede aumentar la resiliencia operativa frente a saturación, interferencias o ataques coordinados. Pero también reduce la gobernabilidad del uso de la fuerza. Un sistema que reacciona más rápido de lo que el liderazgo político puede supervisar incrementa el riesgo de escaladas no intencionadas, especialmente en crisis ambiguas.

El dilema no es tecnológico, sino político-militar: ¿hasta qué punto estamos dispuestos a sacrificar control consciente por ventaja operativa? Y, más aún, ¿quién asume el coste cuando esa ventaja produce un error sistémico?

La autonomía letal no introduce solo un problema ético puntual, sino una transformación profunda del mando y control. La IA desplaza la decisión desde el acto final hacia la arquitectura del sistema. La pregunta ya no es si una máquina puede matar, sino cómo se gobierna un sistema donde la decisión emerge de interacciones humano–algorítmicas aceleradas.

Con esta tensión en mente, el siguiente paso es analizar el combustible que hace posible esa autonomía: los datos. Porque en la guerra de la IA, quien domina los datos domina el campo de batalla antes de que empiece.

3. La carrera por la dominancia de los datos

El “petróleo” del siglo XXI… y el terreno donde se gana la guerra antes de combatir

En la estrategia militar basada en inteligencia artificial, los datos no son un recurso auxiliar: son el fundamento mismo del poder. La analogía con el petróleo resulta útil solo si se entiende en profundidad. No basta con poseer datos; hay que extraerlos, refinarlos, protegerlos y, sobre todo, negar su acceso al adversario. En este sentido, la dominancia de los datos es una forma de ventaja estructural acumulativa: quien empieza antes y mejor, amplía la brecha con el tiempo.

Qué datos importan realmente en la guerra de IA

No todos los datos tienen el mismo valor militar. Los sistemas de IA más efectivos se entrenan con combinaciones específicas de información:

  • Datos ISR (Intelligence, Surveillance, Reconnaissance): imágenes satelitales, radar, sensores terrestres, marítimos y aéreos.
  • Señales electrónicas y electromagnéticas: emisiones de radar, comunicaciones, firmas espectrales.
  • Datos operativos y logísticos: movimientos de unidades, consumo, mantenimiento, tiempos de respuesta.
  • Datos humanos y cognitivos: comportamiento social, patrones de comunicación, estados de ánimo colectivos.

La ventaja no proviene solo del volumen, sino de la calidad contextual, la actualización continua y la capacidad de fusionar fuentes heterogéneas en tiempo casi real.

Datos como poder estructural, no táctico

A diferencia de un arma concreta, los datos no se “gastan” al usarlos. Al contrario: cada operación, ejercicio o conflicto genera nuevos datos que realimentan el sistema. Esto crea un círculo virtuoso —o vicioso— de aprendizaje continuo. Los actores con mayor acceso a flujos constantes de información relevante entrenan mejores modelos, que a su vez producen mejores decisiones y más datos útiles.

Esta lógica favorece a quienes controlan:

  • grandes redes de sensores,
  • infraestructuras digitales globales,
  • y plataformas capaces de recolectar datos civiles con valor militar indirecto.

Aquí la frontera entre lo civil y lo militar se vuelve porosa.

Geopolítica de los datos: dependencia y negación

La carrera por los datos genera nuevas dependencias estratégicas. Estados que carecen de infraestructura propia dependen de:

  • proveedores externos de imágenes,
  • plataformas comerciales de análisis,
  • o nubes de datos bajo jurisdicciones ajenas.

Esto introduce vulnerabilidades críticas. En un conflicto, negar el acceso a datos —cortando flujos, degradando sensores, imponiendo restricciones legales o técnicas— puede ser tan decisivo como destruir un sistema de armas. La negación de datos se convierte así en una forma de coerción estratégica silenciosa.

Centros de datos, cables y soberanía informacional

La dominancia de los datos no es abstracta. Se materializa en:

  • centros de datos físicos,
  • cables de transmisión,
  • jurisdicciones legales que determinan quién puede acceder a qué información y en qué condiciones.

El control de estos nodos confiere poder no solo para usar datos propios, sino para influir sobre los datos ajenos. La soberanía informacional deja de ser un concepto normativo y se transforma en capacidad operativa real.

El problema de la ilusión algorítmica

Existe, además, un riesgo estratégico interno: confundir cantidad de datos con comprensión. Sistemas entrenados con datos incompletos, sesgados o irrelevantes pueden producir una falsa sensación de omnisciencia. La IA no elimina la incertidumbre; la redistribuye. Quien domina los datos, pero interpreta mal su significado, puede tomar decisiones rápidas y erróneas a gran escala.

En la guerra de la inteligencia artificial, los datos son el terreno donde se decide la ventaja antes del primer disparo. No son solo un recurso: son una arquitectura de poder acumulativa, difícil de revertir y profundamente desigual. Dominar los datos implica dominar el ritmo, el marco y, en muchos casos, el resultado del conflicto.

Pero esta dominancia no se limita al plano físico o informacional. Se extiende al terreno más frágil de todos: la mente humana y la percepción de la realidad. Allí es donde la IA despliega su faceta más disruptiva.

4. Guerra cognitiva y el debilitamiento de la realidad

Cuando el campo de batalla es la percepción

La dimensión más disruptiva de la inteligencia artificial en la estrategia militar no se manifiesta necesariamente en plataformas armadas, sino en el dominio cognitivo: el espacio donde se forman percepciones, creencias, emociones y decisiones colectivas. Aquí, la IA no busca destruir fuerzas enemigas, sino erosionar la capacidad de una sociedad para comprender, decidir y sostener un conflicto. Es una guerra que no apunta al territorio ni al armamento, sino a la realidad compartida.

De la información a la manipulación sistémica

Las operaciones de información siempre han existido, pero la IA introduce un salto cualitativo. Permite pasar de campañas artesanales a operaciones industriales de influencia, caracterizadas por:

  • escala masiva,
  • personalización extrema,
  • adaptación en tiempo real,
  • y persistencia algorítmica.

Herramientas como deepfakes, bots sociales, generadores de texto y sistemas de análisis de sentimientos permiten modular narrativas con una precisión imposible hasta hace pocos años. No se trata solo de mentir mejor, sino de fragmentar la percepción, inundar el espacio informativo y hacer indistinguible lo verdadero de lo falso.

El objetivo no es convencer, es desorientar

Un error común es asumir que la guerra cognitiva busca persuadir. En realidad, su objetivo principal es debilitar la confianza epistémica: que la población deje de saber qué fuentes son fiables, qué hechos son comprobables y qué decisiones son legítimas. Cuando la duda se generaliza, la cohesión social se erosiona y la ventaja moral del adversario se diluye.

La IA es especialmente eficaz aquí porque aprende qué mensajes polarizan, qué emociones movilizan y qué grietas culturales amplificar. El sistema no necesita comprender ideologías; le basta con optimizar reacciones.

Ventaja estratégica sin confrontación directa

Desde el punto de vista militar, la guerra cognitiva presenta ventajas claras:

  • opera por debajo del umbral del conflicto armado,
  • dificulta la atribución,
  • y puede producir efectos estratégicos sin recurrir a la fuerza cinética.

Una sociedad fragmentada, polarizada o desconfiada es menos capaz de sostener una estrategia coherente, incluso con superioridad militar convencional. En este sentido, la guerra cognitiva puede resultar más inmediata y disruptiva que los robots de combate: no destruye capacidades, las inutiliza desde dentro.

 La erosión de la ventaja moral

La legitimidad es un multiplicador estratégico. La IA aplicada a la manipulación informativa puede socavarla rápidamente: imágenes falsas de atrocidades, narrativas amplificadas artificialmente, campañas que cuestionan la legalidad o moralidad de una operación. Incluso cuando se desmienten, el daño ya está hecho. La velocidad supera a la verificación.

Aquí aparece una asimetría peligrosa: las democracias abiertas, con ecosistemas informativos plurales, son más vulnerables a este tipo de ataques que sistemas cerrados y controlados. La apertura informativa, que es una fortaleza política, se convierte en una superficie de ataque cognitivo.

Realidad debilitada, decisión debilitada

La consecuencia estratégica final es clara: si la percepción de la realidad se fragmenta, la capacidad de decisión colectiva se degrada. Gobiernos dudan, sociedades se polarizan, aliados desconfían entre sí. La IA no impone una narrativa única; crea un entorno donde ninguna narrativa logra consolidarse.

La guerra cognitiva impulsada por IA redefine el conflicto moderno. No busca la victoria militar directa, sino la parálisis decisional del adversario. En muchos escenarios, esta dimensión no cinética resulta más rápida, barata y eficaz que el empleo de fuerza armada.

Frente a este panorama, surge una pregunta inquietante: si la IA acelera y amplifica tanto la percepción como la decisión, ¿qué ocurre cuando esa aceleración se introduce en sistemas de alerta temprana y respuesta automática?

5. La paradoja de la velocidad: riesgo de escalada y estabilidad estratégica

Cuando decidir más rápido puede significar decidir peor

Uno de los argumentos más recurrentes a favor de la inteligencia artificial en el ámbito militar es su capacidad para acelerar el ciclo OODA (Observar, Orientar, Decidir, Actuar). En teoría, quien complete este ciclo más rápido desborda al adversario, le impone el ritmo y gana la iniciativa estratégica. Sin embargo, cuando la velocidad se aproxima a escalas temporales incompatibles con la deliberación humana, aparece una paradoja profunda: la misma rapidez que promete seguridad puede convertirse en fuente de inestabilidad sistémica.

De la ventaja temporal a la compresión del juicio

Los sistemas de apoyo a la decisión basados en IA reducen drásticamente el tiempo entre detección y respuesta. En dominios como la defensa antimisiles, la ciberdefensa o la guerra electrónica, esta aceleración es operativamente atractiva, incluso necesaria. El problema surge cuando la compresión temporal elimina el espacio del juicio político-militar, sustituyéndolo por reacciones automatizadas encadenadas.

En este escenario, el decisor humano no desaparece, pero se ve empujado a ratificar decisiones preconfiguradas, bajo presión extrema y con información ya procesada algorítmicamente. La decisión sigue siendo “humana” en lo formal, pero algorítmica en lo sustantivo.

Sistemas auto-reactivos y escalada no intencionada

La introducción de IA en sistemas de alerta temprana y respuesta defensiva crea bucles de interacción potencialmente peligrosos. Si dos actores despliegan sistemas capaces de:

  • detectar amenazas en tiempo real,
  • evaluar probabilidades de ataque,
  • y activar contramedidas de forma casi automática,

el margen para la interpretación errónea, el falso positivo o la señal ambigua se amplifica. La escalada ya no depende de una decisión consciente de atacar, sino de interacciones entre sistemas que reaccionan a percepciones incompletas.

Este riesgo no es nuevo —existía ya en la era nuclear—, pero la IA introduce un factor diferencial: aprende y se adapta, lo que dificulta anticipar su comportamiento exacto bajo estrés sistémico.

¿Disuasión reforzada o guerra por error?

Existe un argumento opuesto: la IA, al mejorar la detección y la precisión, podría reforzar la disuasión al reducir la incertidumbre. Un adversario sabría que cualquier ataque sería identificado y respondido con rapidez y exactitud, desincentivando la agresión.

Ambas lecturas son plausibles, y ahí reside el problema estratégico. La IA puede:

  • estabilizar escenarios bien definidos,
  • pero desestabilizar crisis ambiguas, donde la información es incompleta y la intención del adversario no está clara.

La estabilidad estratégica no depende solo de capacidades, sino de tiempo para interpretar señales. La hiper-velocidad erosiona ese tiempo.

 El dilema del “humano en el bucle”

Mantener al humano “en el bucle” se presenta a menudo como solución. Sin embargo, cuando los sistemas operan a velocidades sobrehumanas, el humano se convierte en cuello de botella o, peor aún, en punto de fallo simbólico: presente para cumplir requisitos normativos, pero incapaz de influir realmente.

Esto plantea un dilema sin solución técnica sencilla:

  • retirar al humano aumenta el riesgo político y ético,
  • mantenerlo puede degradar la eficacia operativa o inducir una falsa sensación de control.

La paradoja de la velocidad revela uno de los riesgos más profundos de la IA militar: confundir rapidez con control. La aceleración del ciclo decisional puede generar ventajas tácticas, pero también incrementar la probabilidad de escaladas no intencionadas, especialmente en sistemas interactivos y altamente automatizados.

En este contexto, la IA no elimina el riesgo estratégico; lo reconfigura. La estabilidad futura no dependerá solo de mejores algoritmos, sino de límites conscientes a la velocidad de la guerra.

Este dilema nos conduce directamente al último eje del análisis:
la ética, la gobernanza y la ausencia de reglas vinculantes en un entorno donde la ventaja estratégica se impone a la regulación.

Conclusión

La guerra no será algorítmica… pero sí condicionada por algoritmos

La inteligencia artificial no introduce una ruptura limpia con la historia militar, sino una reconfiguración profunda de sus equilibrios internos. No reemplaza al ser humano como sujeto de la guerra, pero desplaza el centro de gravedad de la decisión, comprime el tiempo, redistribuye la responsabilidad y altera la relación entre poder político y acción militar. En este sentido, la IA no es un arma más: es un metasistema que atraviesa todos los dominios del conflicto.

A lo largo del artículo hemos visto que su impacto no se mide solo en plataformas autónomas o en letalidad delegada. Se manifiesta en la superioridad decisional, en la dominancia estructural de los datos, en la capacidad de moldear percepciones colectivas y en la aceleración del ciclo estratégico hasta límites que desafían el control humano significativo. La figura del centauro digital resume bien esta tensión: humano e IA ya no actúan de forma separada, pero tampoco fusionados de manera estable. Su interacción es poderosa… y frágil.

La promesa de eficiencia que ofrece la IA viene acompañada de riesgos sistémicos inéditos. La autonomía operativa difumina la cadena de mando; la hiper-velocidad erosiona la deliberación; la guerra cognitiva debilita la noción de realidad compartida; y la carrera por los datos crea ventajas acumulativas difíciles de equilibrar. En conjunto, estos factores incrementan el riesgo de escaladas no intencionadas, no por mala fe, sino por interacción entre sistemas complejos que reaccionan más rápido de lo que pueden comprenderse mutuamente.

Frente a este panorama, la ética y la gobernanza no pueden plantearse como frenos morales abstractos ni como prohibiciones totales poco realistas. La historia demuestra que la regulación efectiva de la guerra surge cuando los actores perciben que la ausencia de límites es más peligrosa que su aceptación. La IA militar pone a prueba esa lección: obliga a pensar en límites a la velocidad, a la autonomía y a la delegación decisional no como concesiones éticas, sino como condiciones mínimas de estabilidad estratégica.

En última instancia, la inteligencia artificial no decide si habrá guerra, ni quién la gana. Pero condiciona cómo se decide, a qué ritmo y con qué margen de error. Y ahí reside su verdadero poder. El desafío estratégico del siglo XXI no será construir algoritmos cada vez más rápidos, sino preservar espacios de control humano y político en un entorno que empuja sistemáticamente a eliminarlos.

La pregunta final no es si la IA hará la guerra más eficaz, sino si las sociedades que la despliegan serán capaces de gobernar la violencia cuando la decisión se vuelve más rápida que la reflexión. Esa, más que tecnológica, es una cuestión profundamente política.

 


Comentarios

Entradas populares de este blog