LA REVOLUCIÓN DEL COMBATE: DRONES, IA Y EL NACIMIENTO DE UNA NUEVA DOCTRINA

INTRODUCCIÓN

La revolución del combate: drones, IA y el nacimiento de una nueva doctrina

Estamos entrando en una etapa histórica en la que el campo de batalla deja de ser únicamente un espacio físico y se convierte, cada vez más, en un sistema cognitivo. Un entorno donde ver primero, decidir antes y golpear con precisión ya no depende solo de la maniobra, la potencia de fuego o la moral, sino de la capacidad de procesar información en tiempo real, resistir la saturación, negar el espectro electromagnético al adversario y conservar algo que no se puede automatizar del todo: el juicio humano.

La irrupción masiva de drones —aéreos, terrestres y navales— y la integración acelerada de inteligencia artificial están reescribiendo los fundamentos mismos de la guerra. No hablamos de una evolución incremental, sino de una mutación sistémica: proliferación de sensores baratos, ataques de precisión a bajo coste, enjambres autónomos, guerra electrónica permanente, guerra de datos y una nueva fragilidad logística. El resultado es un combate más transparente y, al mismo tiempo, más engañoso; más rápido y, a la vez, más vulnerable al error catastrófico.

En este nuevo escenario, los principios clásicos no desaparecen por completo, pero sí se ven forzados a transformarse. La concentración de fuerzas se enfrenta a la detección y el ataque distribuido. El engaño ya no se limita al terreno visible: se libra en el espectro, en los datos y en los algoritmos. La defensa en profundidad ya no es solo escalonamiento físico: es redundancia de redes, dispersión inteligente y supervivencia bajo saturación. La maniobra ya no se mide solo en kilómetros, sino en ciclos OODA y latencia de decisión.

Este artículo propone una reflexión doctrinal, pragmática y orientada a la acción, como la que se produciría en un Estado Mayor o en un centro de pensamiento estratégico contemporáneo. La pregunta central es simple y brutal: ¿cómo se combate, se manda, se sostiene y se limita éticamente una fuerza militar cuando el enemigo puede observarte desde arriba, atacarte con enjambres baratos y acelerar el ciclo de decisión con máquinas?

Para responderlo, estructuramos el análisis en seis partes:

  1. Análisis de vulnerabilidad y adaptación doctrinal ante enjambres de drones
  2. El ciclo OODA en tiempo algorítmico: ventaja operativa y riesgo de escalada
  3. La nueva trinidad del poder: algoritmos, datos y autonomía como pilares estratégicos
  4. Reglas de enfrentamiento (ROE) para sistemas autónomos: responsabilidad y salvaguardas
  5. La logística en la era de la guerra autónoma: resiliencia ante ciberataques y saturación
  6. Formación del combatiente del futuro: del fusilero al operador de sistemas integrados
1. Análisis de vulnerabilidad y adaptación doctrinal ante enjambres de drones

La introducción masiva de drones —y, sobre todo, de enjambres coordinados— no añade simplemente “una nueva amenaza” al catálogo táctico. Cambia el propio lenguaje del combate. Porque el dron no es solo un vector de ataque: es un sensor, un repetidor, un señuelo, un arma de precisión, un multiplicador de alcance y una forma barata de saturar defensas caras. Y cuando ese dron deja de actuar como unidad aislada y pasa a operar como enjambre, el campo de batalla se convierte en un problema de densidad, de persistencia y de economía de destrucción.

Desde el punto de vista de un oficial de Estado Mayor, el análisis doctrinal debe comenzar con una pregunta fría: ¿qué partes de nuestra defensa táctica se vuelven vulnerables por diseño cuando el adversario puede desplegar cientos o miles de sistemas baratos, distribuidos, persistentes y potencialmente autónomos?

Y la respuesta es incómoda: casi todo lo que depende de concentración, exposición y previsibilidad.

1.1 La nueva vulnerabilidad: saturación barata contra defensa cara

En la guerra industrial clásica, la defensa se construía sobre plataformas relativamente escasas y costosas: sistemas antiaéreos, blindados, artillería, radares. La lógica era: proteger activos críticos con defensas críticas.

Los enjambres rompen esa lógica por una asimetría económica:

a) El atacante puede gastar poco para obligarte a gastar mucho
Un dron FPV o munición merodeadora puede costar cientos o miles. Interceptarlo puede costar decenas o cientos de miles.

b) El atacante puede permitirse pérdidas masivas
Un enjambre está diseñado para perder unidades y seguir funcionando.

c) El defensor no puede interceptar todo
Si la defensa depende de interceptación perfecta, está condenada.

Esto obliga a pasar de “defensa por destrucción” a “defensa por negación, degradación y supervivencia”.

1.2 Reformulación de la concentración de fuerzas: de masa física a masa distribuida

La concentración de fuerzas ha sido un principio clásico: reunir potencia en el punto decisivo. Pero en un campo saturado de drones, la concentración física se convierte en un imán.

a) La masa visible es masa atacable
Cualquier concentración es detectada y atacada.

b) La concentración se desplaza al dominio de efectos
No se concentra “gente y vehículos”, se concentra:

  • fuego coordinado
  • efectos EW (guerra electrónica)
  • sensores fusionados
  • ataques sincronizados

c) Nueva doctrina
La masa ya no es densidad física, es densidad de efectos.

El comandante debe aprender a “concentrar sin concentrarse”.

1.3 El engaño se vuelve algorítmico: camuflaje físico + camuflaje de datos

El engaño sigue siendo vital, pero cambia de naturaleza.

a) Camuflaje clásico
Ocultación visual, térmica, acústica.

b) Camuflaje electromagnético
Negar firmas de emisión, reducir radiación, controlar comunicaciones.

c) Camuflaje de datos
El enemigo no solo observa con sensores: observa con algoritmos. Por tanto, el engaño debe incluir:

  • falsos patrones de actividad
  • señuelos electrónicos
  • tráfico simulado
  • objetivos falsos generados para saturar IA enemiga

La guerra del engaño se traslada del ojo humano al clasificador automático.

 1.4 Defensa en profundidad: ya no es solo escalonamiento, es resiliencia

La defensa en profundidad clásica consiste en capas: primera línea, segunda, reservas, fuegos.

Con enjambres, las capas físicas no bastan si todas son transparentes.

a) Profundidad física
Sí: posiciones escalonadas, dispersión, redundancia de rutas.

b) Profundidad de red
Capacidad de mantener mando y control bajo:

  • interferencia
  • spoofing
  • pérdida de enlaces
  • saturación

c) Profundidad logística
Capacidad de seguir combatiendo aunque el enemigo ataque depósitos, rutas y nodos.

d) Profundidad de percepción
Capacidad de seguir “viendo” aunque te nieguen sensores.

La defensa en profundidad se convierte en defensa por supervivencia sistémica.

1.5 Obsolescencia parcial de ciertas “zonas seguras” tácticas

En el paradigma clásico, existían áreas relativamente seguras:

  • retaguardia táctica
  • puestos de mando ocultos
  • zonas de reabastecimiento
  • áreas de concentración previa

Los drones reducen esas zonas.

a) La retaguardia se vuelve permeable
El alcance de drones y municiones merodeadoras convierte el “detrás” en “dentro”.

b) Los puestos de mando se vuelven objetivos prioritarios
Porque el enjambre puede buscar nodos de mando por firma electrónica.

c) El reabastecimiento se vuelve combate
Mover munición o combustible ya no es logística: es una misión bajo amenaza.

La consecuencia doctrinal es clara: toda la profundidad es frente.

1.6 Adaptación doctrinal: de “proteger activos” a “gestionar exposición”

En este nuevo entorno, la defensa no puede basarse solo en proteger todo. Hay que gestionar exposición.

a) Exposición como variable táctica
Cuánto tiempo, cuánta firma, cuánta densidad, cuánta emisión.

b) Regla doctrinal emergente
Si te detectan, te atacan. Si te atacan, debes sobrevivir.

c) Medidas clave

  • dispersión inteligente
  • movilidad constante
  • disciplina EMCON
  • redundancia de enlaces
  • camuflaje multispectral
  • señuelos sistemáticos

El objetivo no es “ser invisible”, sino ser inviable como objetivo.

1.7 La defensa antidrón: del “kill” al “deny-degrade-disrupt”

La defensa antidrón clásica tiende a pensar en derribar. Pero con enjambres, derribar todo es imposible.

a) Kill: destruir
Necesario, pero insuficiente.

b) Deny: negar
Negar navegación, negar enlace, negar objetivos.

c) Degrade: degradar
Reducir precisión, reducir coordinación, reducir persistencia.

d) Disrupt: desorganizar
Romper el enjambre, fragmentarlo, obligarlo a actuar como unidades aisladas.

Esta lógica crea un enfoque más realista: no se busca perfección, se busca ruptura del sistema enemigo.

1.8 Cambios en la maniobra: moverse sin ser visto, golpear sin ser localizado

La maniobra clásica buscaba posición ventajosa.

La maniobra en campo saturado busca:

a) Movilidad de baja firma
Moverse minimizando emisión y detectabilidad.

b) Ventanas de oportunidad
La maniobra ocurre cuando:

  • el enemigo está cegado
  • la EW crea un hueco
  • se saturan sus sensores
  • se induce error en su IA

c) Maniobra por negación
No solo moverse, sino negar al enemigo su capacidad de observar y decidir.

El movimiento deja de ser geografía y se convierte en gestión de percepción.

1.9 Reescritura de los manuales de defensa táctica: principios reformulados

Podemos sintetizar qué principios deben reformularse:

a) Concentración de fuerzas
De masa física a masa de efectos distribuidos.

b) Defensa en profundidad
De capas físicas a resiliencia sistémica (red, logística, percepción).

c) Engaño
De ocultación visual a engaño multispectral y algorítmico.

d) Protección
De “defender todo” a “gestionar exposición y supervivencia”.

e) Retaguardia
De zona segura a espacio permeable bajo amenaza constante.

1.10 Conclusión operativa de la Parte 1: el enemigo ya no es solo fuego, es saturación cognitiva

El enjambre no busca solo destruir. Busca saturar tu capacidad de decidir. Busca que gastes recursos, que emitas, que reveles posiciones, que te paralices o te disperses sin control.

Por eso, la adaptación doctrinal no consiste solo en añadir “antidrones”. Consiste en rediseñar la defensa táctica como un sistema completo:

  • percepción bajo ataque
  • mando bajo degradación
  • supervivencia bajo saturación
  • maniobra bajo transparencia
  • logística bajo amenaza

Si esto se entiende, entonces se puede combatir en el nuevo paradigma.

2. El ciclo OODA en tiempo algorítmico: ventaja o riesgo

Durante décadas, el ciclo OODA (Observar–Orientar–Decidir–Actuar) fue una forma elegante de explicar por qué algunos ejércitos vencen incluso con menos medios: no porque disparen más, sino porque comprenden antes, deciden mejor y actúan con más velocidad y coherencia que el adversario. Pero en la guerra actual, ese ciclo entra en una mutación radical: pasa del tiempo humano al tiempo algorítmico.

Y aquí aparece una verdad incómoda: cuando los algoritmos aceleran el ciclo, también pueden acelerar el error. La IA no solo puede darte ventaja, también puede precipitarte al desastre si decides sobre datos contaminados, bajo saturación, o si delegas demasiado en sistemas que no entienden el contexto moral ni estratégico.

La pregunta ya no es solo “¿cómo cierro mi OODA más rápido?”
La pregunta real es: “¿cómo cierro mi OODA más rápido sin perder el juicio?”

2.1 El OODA clásico: velocidad cognitiva y desorganización del enemigo

El OODA de John Boyd no era un simple esquema de mando: era una teoría de victoria.

a) Observar
Recoger información del entorno.

b) Orientar
Interpretar esa información con cultura, experiencia, doctrina, inteligencia, intuición.

c) Decidir
Elegir un curso de acción.

d) Actuar
Ejecutar y retroalimentar el ciclo.

La clave era esta: si entras en el OODA del enemigo, lo desorganizas. Le impones ritmo. Lo obligas a reaccionar en lugar de actuar.

2.2 La mutación actual: del OODA humano al OODA de máquina

Con drones, sensores persistentes y análisis automatizado, la fase de observación se acelera brutalmente. Y con IA, la orientación y la decisión pueden automatizarse parcial o totalmente.

a) Observación persistente
No hay “momentos de niebla”. Hay vigilancia continua.

b) Orientación asistida por IA
La IA clasifica objetivos, detecta patrones, sugiere amenazas.

c) Decisión semi-automatizada
Sistemas recomiendan cursos de acción, priorizan blancos, asignan recursos.

d) Actuación automatizada
Drones, municiones merodeadoras, fuegos coordinados por redes.

Esto crea un nuevo fenómeno: OODA comprimido.

2.3 Ventaja operativa: quien domina el tiempo algorítmico domina el ritmo

En términos puramente militares, la ventaja es evidente:

a) Menos latencia
La IA reduce el tiempo entre detección y acción.

b) Mayor precisión
La fusión de sensores mejora la calidad del targeting.

c) Capacidad de saturación
Los algoritmos coordinan múltiples plataformas simultáneamente.

d) Persistencia
La IA no se cansa, no pierde atención, no tiene fatiga.

El comandante obtiene una capacidad que antes era imposible: mando sobre cientos de microacciones simultáneas.

2.4 El problema central: OODA degradado y guerra de datos contaminados

Aquí está el punto crítico que acordamos introducir: el OODA puede degradarse.

a) Observar no es ver, es recibir señales
Y esas señales pueden ser:

  • falsas
  • incompletas
  • manipuladas
  • saturadas

b) Orientar depende de contexto
La IA orienta por patrones, pero no comprende intenciones humanas ni ambigüedad moral.

c) Decidir sobre basura acelera la derrota
Si el sistema decide rápido sobre datos malos, no estás cerrando el OODA: estás cerrando un círculo de error.

Esto produce una paradoja moderna:

Velocidad + datos contaminados = catástrofe más rápida.

2.5 ¿Dónde delegar en IA sin perder criterio humano?

El punto no es “IA sí o no”. El punto es dónde y cómo.

Podemos dividir el ciclo OODA por niveles de delegación.

2.5.1 Observación: delegación alta, pero con verificación
La IA es excelente para:

  • detectar movimiento
  • clasificar firmas
  • señalar anomalías

Pero requiere:

a) verificación cruzada
b) sensores redundantes
c) filtros contra spoofing

2.5.2 Orientación: delegación media, porque aquí vive la interpretación
La IA puede ayudar a:

  • sugerir hipótesis
  • detectar correlaciones
  • estimar probabilidades

Pero el humano debe mantener:

a) comprensión del objetivo político
b) conciencia de escalada
c) lectura del entorno social y moral

2.5.3 Decisión: delegación limitada en escenarios letales
Aquí es donde el riesgo se dispara.

La IA puede:

  • proponer opciones
  • calcular riesgos
  • optimizar recursos

Pero el humano debe decidir cuando:

a) hay letalidad directa
b) hay riesgo de daño colateral
c) hay incertidumbre alta
d) hay implicaciones estratégicas

2.5.4 Actuación: delegación variable según control y entorno
La ejecución puede automatizarse, pero debe existir:

a) capacidad de abortar
b) capacidad de reorientar
c) supervisión humana real

2.6 El punto de ruptura: cuándo la IA aumenta el riesgo de escalada no deseada

El riesgo no es solo táctico. Es estratégico.

a) La IA puede interpretar una amenaza como certeza
Si clasifica mal, puede desencadenar fuego prematuro.

b) El enemigo puede provocar respuestas automáticas
Usar señuelos o provocaciones para activar tu sistema.

c) La velocidad reduce espacio para diplomacia
Cuando el ciclo es instantáneo, el tiempo político desaparece.

d) La escalada se vuelve mecánica
No escalas porque lo decides: escalas porque el sistema reacciona.

Esto es gravísimo: el conflicto puede subir de nivel por automatismo.

2.7 Riesgos operativos concretos: el enemigo te puede “hackear el OODA”

En guerra algorítmica, atacar al enemigo no es solo destruir sus fuerzas. Es destruir su percepción.

a) Decepción de sensores
Señuelos térmicos, reflectores, drones señuelo.

b) Spoofing de navegación
GPS spoofing, alteración de referencias.

c) Saturación informativa
Demasiados contactos, demasiadas alertas.

d) Ataques cibernéticos
Manipulación de sistemas de mando, datos falsos.

e) Guerra electrónica
Negación de enlaces, degradación de comunicaciones.

El enemigo no necesita ganarte en fuego. Le basta con desorganizar tu ciclo cognitivo.

2.8 Diseño doctrinal: OODA robusto, no solo rápido

Aquí está la conclusión doctrinal: la velocidad no basta. Necesitas robustez.

a) Robustez significa redundancia
Múltiples sensores, múltiples fuentes, múltiples rutas de comunicación.

b) Robustez significa degradación controlada
Si pierdes IA, debes seguir pudiendo combatir.

c) Robustez significa entrenamiento humano
Los mandos deben saber operar en:

  • silencio electrónico
  • mapas incompletos
  • decisiones con incertidumbre

d) Robustez significa “capacidad de parar”
Un sistema rápido sin freno es una máquina de escalada.

2.9 Salvaguardas imprescindibles: mantener criterio humano sin frenar la guerra moderna

Un comandante debe construir salvaguardas técnicas y humanas.

a) Human-on-the-loop como mínimo
El humano supervisa y puede intervenir.

b) Umbrales de letalidad
La IA puede actuar sola solo bajo condiciones estrictas.

c) Regla de incertidumbre
Si la confianza del sistema cae por debajo de un umbral, se bloquea automatismo.

d) Confirmación multifuente
No se dispara por una sola señal.

e) Registro y trazabilidad
Toda decisión automatizada debe ser auditable.

2.10 Síntesis: el OODA algorítmico es ventaja si no destruye el juicio

La guerra actual premia al que acelera. Pero castiga al que acelera sin criterio.

El OODA algorítmico ofrece ventaja real:

  • más velocidad
  • más coordinación
  • más precisión
  • más saturación

Pero introduce riesgos nuevos:

  • datos contaminados
  • escalada automática
  • decisiones sin contexto
  • error amplificado por velocidad

Por eso, la doctrina del futuro no debe buscar solo “OODA más rápido”. Debe buscar:

OODA más rápido y robusto.

3. La nueva trinidad del poder: algoritmos, datos y autonomía

Clausewitz entendió la guerra como un fenómeno humano total. Su famosa “trinidad” —gobierno, ejército y pueblo— describía el equilibrio inestable entre política, violencia organizada y pasión social. Era una arquitectura conceptual para comprender por qué la guerra no es solo combate: es voluntad, legitimidad y capacidad de sostener el esfuerzo.

Pero hoy, sin negar esa trinidad clásica, aparece una nueva capa que no existía en el siglo XIX: una dimensión cognitiva-tecnológica que reorganiza la forma en que se genera poder militar. En la guerra de drones e IA, el poder ya no se concentra únicamente en divisiones, arsenales o reservas humanas. Se concentra en algo más abstracto y, por eso mismo, más decisivo:

  • algoritmos que deciden
  • datos que definen la realidad operativa
  • autonomía que ejecuta sin fricción humana

Esta es la nueva trinidad militar del siglo XXI. No sustituye a Clausewitz: lo actualiza. Porque si Clausewitz nos dio el mapa humano de la guerra, esta trinidad nos da el mapa sistémico de la guerra algorítmica.

 3.1 Por qué la trinidad clásica ya no basta en el nivel táctico-operacional

La trinidad gobierno–ejército–pueblo sigue siendo válida en el plano estratégico-político. Pero cuando bajamos al nivel táctico-operacional, la guerra actual se decide en ritmos y dominios que Clausewitz no pudo anticipar:

a) La percepción del campo de batalla ya no es humana
Es una fusión de sensores y modelos.

b) La decisión ya no es exclusivamente humana
Es una recomendación algorítmica, a veces automática.

c) La acción ya no depende del soldado en primera línea
Depende de sistemas remotos, enjambres, redes y automatismos.

Por eso, sin negar la política, aparece un nuevo triángulo de poder que determina quién domina el combate moderno.

3.2 Pilar 1: Algoritmos como “elemento cognitivo” del combate

Los algoritmos se convierten en el cerebro operacional del sistema.

a) Qué hacen realmente los algoritmos

  • detectan amenazas
  • priorizan blancos
  • optimizan rutas y recursos
  • asignan sensores y fuegos
  • predicen comportamiento enemigo
  • recomiendan cursos de acción

b) Algoritmos como mando invisible
El comandante sigue siendo responsable, pero el algoritmo se vuelve el filtro a través del cual ve el mundo.

c) Riesgo doctrinal
Si el algoritmo está sesgado, si se entrena mal o si opera sobre datos contaminados, no es un apoyo: es una distorsión sistemática.

En guerra algorítmica, un error de software puede equivaler a una derrota operativa.

3.3 Pilar 2: Datos como terreno estratégico

Aquí está la revolución silenciosa: el dato se convierte en terreno.

Antes el terreno era colinas, ríos, carreteras.
Ahora el terreno también es:

  • enlaces
  • firmas electromagnéticas
  • patrones de movilidad
  • bases de datos de objetivos
  • modelos predictivos
  • mapas de interferencia
  • inteligencia de señales

a) Quien controla los datos controla la realidad operativa
Si tu sistema “ve” lo que el enemigo quiere que veas, ya estás dentro de su guerra.

b) Los datos no son neutrales
Están sujetos a:

  • niebla
  • manipulación
  • ruido
  • saturación
  • engaño deliberado

c) Guerra por el dato
La lucha ya no es solo por destruir fuerzas, sino por:

  • negar información
  • contaminar información
  • robar información
  • generar falsas realidades operativas

Esto convierte al campo de batalla en un entorno donde la verdad es disputada.

3.4 Pilar 3: Autonomía como factor de disrupción

La autonomía reduce fricción humana. Y eso, en guerra, es poder.

a) Qué significa autonomía
Sistemas capaces de:

  • navegar
  • seleccionar rutas
  • coordinarse
  • identificar objetivos
  • ejecutar misiones
    sin control continuo humano.

b) La autonomía multiplica masa operativa
No necesitas más soldados para operar más sistemas. Necesitas redes, energía y control.

c) Autonomía = velocidad + saturación
Permite enjambres, persistencia y reacción instantánea.

d) Pero autonomía también multiplica riesgo
Porque cuando se delega acción, se delega posibilidad de error.

Autonomía es fuerza.
Pero también es un amplificador de consecuencias.

3.5 La nueva trinidad operativa: cómo se retroalimentan

Estos tres pilares no actúan por separado. Se alimentan mutuamente.

a) Algoritmos consumen datos
Sin datos, el algoritmo es ciego.

b) Datos alimentan autonomía
Sin datos, la autonomía no tiene contexto.

c) Autonomía genera más datos
Cada dron es un sensor que retroalimenta el sistema.

Esto crea un bucle de poder:

más sensores → más datos → mejores algoritmos → más autonomía → más control del entorno → más sensores…

El que domina este bucle domina el ritmo del combate.

3.6 Reconfiguración del mando: comandante, tecnología y combatiente

Esta trinidad redefine roles tradicionales.

a) El comandante ya no manda solo sobre fuerzas
Manda sobre sistemas socio-técnicos: humanos + máquinas + redes.

b) El combatiente ya no es solo ejecutor
Es un nodo: opera sensores, interpreta datos, lanza efectos remotos.

c) La tecnología deja de ser herramienta y se vuelve actor
No tiene voluntad, pero sí tiene comportamiento. Y ese comportamiento condiciona decisiones.

Esto produce un nuevo tipo de mando:

mando sobre la complejidad.

3.7 El nuevo centro de gravedad: coherencia del sistema

En Clausewitz, el centro de gravedad podía ser un ejército principal, una capital, una alianza.

En guerra algorítmica, el centro de gravedad suele ser:

a) La coherencia del sistema de mando y percepción
Si el sistema se fragmenta, el ejército pierde capacidad aunque conserve medios.

b) La resiliencia de redes y datos
Si pierdes datos, pierdes realidad.

c) La capacidad de operar degradado
El enemigo intentará degradarte. El que sobrevive degradado gana.

La victoria se decide en la capacidad de seguir funcionando cuando el sistema se rompe.

3.8 Nuevas vulnerabilidades: cuando el triángulo se vuelve tu punto débil

Toda trinidad de poder crea también una trinidad de vulnerabilidad.

a) Vulnerabilidad algorítmica

  • sesgos
  • errores de entrenamiento
  • fallos de interpretación
  • dependencia de automatismos

b) Vulnerabilidad de datos

  • spoofing
  • saturación
  • manipulación
  • pérdida de integridad

c) Vulnerabilidad de autonomía

  • pérdida de control
  • escalada accidental
  • comportamiento emergente del enjambre
  • captura o reprogramación

Cuanto más dependes del triángulo, más te destruye si cae.

3.9 Doctrina emergente: soberanía algorítmica y soberanía de datos

Aquí aparece una consecuencia estratégica: un ejército moderno necesita soberanía tecnológica.

a) Soberanía de datos

  • control de infraestructuras
  • ciberseguridad
  • integridad de sensores
  • capacidad de operar sin “nube externa”

b) Soberanía algorítmica

  • modelos propios
  • entrenamiento propio
  • validación y auditoría
  • capacidad de actualizar bajo presión

Un ejército que depende de algoritmos ajenos depende de voluntades ajenas.

3.10 Síntesis: la nueva trinidad no elimina al humano, redefine dónde está su poder

La guerra sigue siendo humana, pero el modo de generar poder cambia.

La trinidad clásica explica por qué se entra en guerra y cómo se sostiene políticamente.
La nueva trinidad explica cómo se gana o se pierde en el terreno moderno.

Algoritmos: el cerebro operacional.
Datos: el terreno disputado.
Autonomía: el músculo que ejecuta.

Y el comandante, en medio, debe aprender a mandar sobre este triángulo sin ser devorado por él. Porque en esta guerra, el que pierde el control de su sistema no pierde solo una batalla: pierde su capacidad de existir como fuerza coherente.

4. Reglas de Enfrentamiento (ROE) para sistemas autónomos

Si hay un punto donde la revolución tecnológica toca el nervio moral de la guerra, es aquí. Porque una cosa es usar IA para clasificar señales, optimizar logística o sugerir rutas. Y otra, mucho más grave, es delegar letalidad. Cuando entran en juego sistemas autónomos capaces de atacar —drones kamikaze, municiones merodeadoras, robots armados— las Reglas de Enfrentamiento dejan de ser un documento operativo y se convierten en el muro que separa la guerra controlada del accidente histórico.

El dilema es simple de formular y complejo de sostener:

¿Cómo defines distinción, proporcionalidad y responsabilidad cuando la decisión inmediata de atacar la toma una máquina?

Lo que sigue es un borrador doctrinal de ROE para operaciones con sistemas autónomos letales, diseñado para ser aplicable en un entorno real, bajo presión, con guerra electrónica, niebla de combate y riesgo de escalada.

4.1 Principios rectores: lo que nunca se negocia

Antes de escribir reglas, hay que fijar los pilares.

4.1.1 Responsabilidad humana permanente
a) Toda acción letal debe ser atribuible a una cadena de mando humana identificable.
b) La autonomía no puede diluir responsabilidad.
c) Si no se puede explicar quién autorizó, quién supervisó y bajo qué criterio, el sistema es inaceptable.

4.1.2 Distinción efectiva
a) Un sistema solo puede atacar si puede discriminar objetivos legítimos con una fiabilidad verificable.
b) Si el entorno impide distinción (civiles mezclados, señales ambiguas), el sistema no actúa.

4.1.3 Proporcionalidad operacional
a) El daño esperado no puede ser excesivo respecto a la ventaja militar concreta e inmediata.
b) La máquina puede estimar, pero el humano define el umbral.

4.1.4 Necesidad militar y mínima fuerza
a) Se emplea la fuerza mínima necesaria para cumplir la misión.
b) La automatización no justifica sobreuso.

4.2 Clasificación doctrinal del control humano: HITL, HOTL, HOOTL

Aquí fijamos el marco que ayer acordamos introducir como base estructural.

4.2.1 Human-in-the-loop (HITL)
a) El humano autoriza cada acción letal individual.
b) El sistema propone, pero no ejecuta sin confirmación.

Uso recomendado: entornos con civiles, incertidumbre alta, riesgo político elevado.

4.2.2 Human-on-the-loop (HOTL)
a) El sistema puede ejecutar dentro de parámetros definidos.
b) El humano supervisa en tiempo real y puede abortar.

Uso recomendado: defensa de punto, interceptación, entornos con reglas claras y baja presencia civil.

4.2.3 Human-out-of-the-loop (HOOTL)
a) El sistema decide y ejecuta sin supervisión humana en tiempo real.
b) Solo se limita por programación previa.

Uso: extremadamente restringido. Solo admisible en condiciones muy específicas, si se admite.

Principio doctrinal propuesto:
En sistemas letales, el estándar debe ser HITL o HOTL. HOOTL solo puede existir como excepción altamente acotada y auditada.

4.3 Condiciones de empleo: cuándo se autoriza un sistema autónomo letal

4.3.1 Condición A: entorno operacional “controlado”
a) Zona de combate claramente delimitada.
b) Ausencia probable de civiles.
c) Objetivos militares inequívocos.

4.3.2 Condición B: identificación robusta multifuente
a) No se autoriza ataque por una sola fuente de datos.
b) Deben coincidir al menos dos de estas categorías:

  • visual/IR
  • radar
  • señales electromagnéticas
  • confirmación humana
  • inteligencia previa verificada

4.3.3 Condición C: confianza algorítmica mínima
a) El sistema debe reportar su nivel de confianza.
b) Si cae por debajo del umbral doctrinal, se bloquea el ataque.

4.3.4 Condición D: enlace y abortabilidad garantizados
a) Si se pierde enlace de mando y no existe abortabilidad segura, se restringe el empleo.
b) El sistema debe tener “kill switch” o retorno seguro.

 4.4 Definición de “responsabilidad” en ataque autónomo

Esta es la clave ética.

4.4.1 Responsabilidad no es del algoritmo
a) La máquina no es sujeto moral.
b) No puede asumir culpa ni intención.

4.4.2 Responsabilidad se reparte en cadena humana
a) Autoridad de misión: quien decide emplear autonomía.
b) Autoridad de fuego: quien autoriza la ventana letal.
c) Supervisión: quien monitoriza.
d) Ingeniería y validación: quienes certifican el sistema.
e) Inteligencia: quien proporciona el contexto de objetivos.

4.4.3 Principio de trazabilidad obligatoria
Cada acción letal debe generar:

a) registro de datos
b) timestamp
c) parámetros de decisión
d) nivel de confianza
e) intervención humana (si la hubo)

Sin trazabilidad no hay legitimidad.

4.5 Definición de “distinción” en sistemas autónomos

4.5.1 Distinción como capacidad verificable, no declarada
a) No basta con “la IA identifica objetivos”.
b) Debe demostrarse con pruebas y validación operativa.

4.5.2 Distinción bajo degradación
La guerra real incluye:

  • humo
  • interferencia
  • señuelos
  • ocultación
  • condiciones nocturnas
  • saturación

El sistema debe tener comportamiento seguro bajo degradación:

a) si duda, no dispara
b) si pierde sensores, se retira
c) si hay conflicto de datos, aborta

4.5.3 Prohibición de inferencias letales por patrón social
Se prohíbe atacar basándose solo en “patrones de comportamiento” ambiguos sin confirmación.

Ejemplo: “grupo corriendo” no equivale a “enemigo”.

4.6 Definición de “proporcionalidad” en decisiones de máquina

4.6.1 La máquina puede estimar, el humano decide el marco
a) La IA calcula riesgo de daño colateral como probabilidad.
b) El mando fija el umbral aceptable.

4.6.2 Proporcionalidad dinámica
En combate, la proporcionalidad puede cambiar por contexto:

a) objetivo de alto valor
b) entorno urbano
c) presencia civil
d) riesgo de escalada

El sistema debe adaptarse a reglas variables y no operar con un único criterio fijo.

4.6.3 Prohibición de escalada automática
Un sistema autónomo no puede:

a) ampliar su lista de objetivos por iniciativa propia
b) cambiar reglas de fuego sin autorización humana
c) atacar en represalia automática

4.7 Salvaguardas técnicas no negociables

4.7.1 Geofencing
a) Límites geográficos estrictos.
b) Si sale de la zona, aborta o retorna.

4.7.2 Timeboxing
a) Ventana temporal limitada.
b) Fuera de la ventana, no hay letalidad.

4.7.3 Identificación de amigo-enemigo (IFF) reforzada
a) Protocolos anti-spoofing.
b) Redundancia.

4.7.4 Resistencia a guerra electrónica
a) comportamiento seguro ante jamming
b) no “disparar a ciegas” si pierde guía

4.7.5 Kill switch físico y lógico
a) capacidad de abortar por mando
b) capacidad de autodesactivación segura

4.7.6 Registro inalterable
a) logs cifrados
b) protección contra manipulación post-acción

4.8 Salvaguardas humanas no negociables

4.8.1 Formación específica en ROE para autonomía
No basta con formar en tácticas. Hay que formar en:

a) límites legales
b) sesgos de IA
c) riesgo de escalada
d) decisiones bajo incertidumbre

4.8.2 Cultura de “derecho a parar”
Cualquier operador o mando debe poder detener empleo autónomo si detecta riesgo grave.

4.8.3 Equipos de verificación cruzada
En misiones sensibles, se requiere doble validación humana.

4.8.4 Revisión post-acción obligatoria
Cada empleo autónomo letal debe revisarse:

a) qué pasó
b) por qué pasó
c) si se ajustó a ROE
d) qué se corrige

4.9 Escenarios de prohibición absoluta o casi absoluta

4.9.1 Entornos urbanos con alta densidad civil
a) riesgo de confusión
b) riesgo de daño colateral
c) alto impacto político

4.9.2 Operaciones de coerción estratégica
Cuando el empleo puede escalar el conflicto.

4.9.3 Ambientes de identificación ambigua
Si el enemigo se mezcla deliberadamente con población o fuerzas aliadas.

4.9.4 Situaciones con alta probabilidad de spoofing o datos contaminados
No se autoriza letalidad autónoma si no hay confianza en la percepción.

4.10 Síntesis: ROE para autonomía = disciplina moral en tiempo de máquina

El combate algorítmico empuja hacia la velocidad.
Pero las ROE existen para impedir que la velocidad se convierta en barbarie o accidente irreversible.

El principio final podría formularse así:

La máquina puede acelerar la acción,
pero nunca debe acelerar la irresponsabilidad.

Y por eso, en doctrina moderna, la autonomía letal solo es admisible si:

  • hay control humano significativo
  • hay trazabilidad total
  • hay distinción verificable
  • hay proporcionalidad definida
  • hay abortabilidad garantizada
  • y existe cultura de límites

5. La logística en la era de la guerra autónoma

Si la táctica decide batallas, la logística decide guerras. Esa frase no es un lugar común: es una ley estructural. Puedes tener drones, IA, munición de precisión y un sistema de mando brillante… pero si no puedes sostener el ritmo, si tu combustible no llega, si tu munición se agota, si tus repuestos no aparecen, el ejército se convierte en una fuerza inmóvil, predecible y derrotable.

Y aquí entra el giro moderno: la autonomía promete transformar la logística en algo más rápido, más eficiente y menos expuesto. Vehículos autónomos de suministro, drones de reabastecimiento, gestión predictiva de inventarios con IA, rutas dinámicas en tiempo real. Pero esa promesa viene con una pregunta que es doctrinalmente crítica:

¿La autonomía hace la logística más robusta… o más vulnerable?

La respuesta no es binaria. Depende de cómo se diseñe. Porque la autonomía puede reducir vulnerabilidades físicas, pero abre vulnerabilidades sistémicas: ciberataque, interferencia, spoofing, dependencia de datos y colapso por degradación.

Esta parte rediseña la cadena logística para que no sea “más moderna”, sino más resiliente bajo ataque.

5.1 La nueva realidad: la logística ya no está detrás, está dentro del combate

En la guerra clásica, existía una separación relativa entre frente y retaguardia. Hoy, con drones, ISR persistente y ataques de precisión baratos, esa separación se rompe.

a) El convoy ya es objetivo
No hay “movimiento administrativo”. Todo movimiento es táctico.

b) Los depósitos ya son blancos prioritarios
La concentración logística se convierte en un imán para munición merodeadora.

c) La firma logística delata el sistema
Tráfico, rutas, patrones de reabastecimiento: todo se observa.

Conclusión: la logística se convierte en un campo de batalla continuo.

5.2 Qué aporta la autonomía: eficiencia, dispersión y persistencia

La autonomía bien empleada puede ser una ventaja enorme.

a) Reducción de exposición humana
Menos conductores, menos convoyes tripulados, menos bajas.

b) Dispersión y micro-logística
En lugar de grandes convoyes, puedes usar:

  • múltiples vehículos pequeños
  • rutas variadas
  • entregas frecuentes de baja firma

c) Operación 24/7
La autonomía no necesita descanso. Mantiene flujo constante.

d) Optimización dinámica
IA puede:

  • predecir consumo
  • anticipar fallos
  • reasignar rutas
  • reducir desperdicio

Esto no es lujo: es supervivencia operativa.

 5.3 La nueva vulnerabilidad: la logística autónoma es un sistema digital atacable

Lo que se automatiza, se puede degradar por medios no cinéticos.

a) Ciberataque
Si el enemigo entra en tu sistema logístico:

  • altera inventarios
  • desordena prioridades
  • crea entregas fantasma
  • bloquea rutas
  • induce colapso sin disparar

b) Guerra electrónica
Jamming y spoofing pueden:

  • desviar vehículos
  • perder navegación
  • romper enlaces
  • inutilizar drones de entrega

c) Ataque al dato
Si la IA predice sobre datos falsos, optimiza hacia el desastre.

d) Ataque a la dependencia
Si el sistema depende de una única red o satélite, basta un golpe para apagarlo.

La autonomía logística es potente, pero su talón de Aquiles es la conectividad y la integridad del dato.

5.4 Rediseño doctrinal: de “cadena logística” a “malla logística”

La logística clásica es una cadena: lineal, jerárquica, con nodos grandes.

En guerra autónoma debe convertirse en una malla: distribuida, redundante, reconfigurable.

a) Cadena

  • pocos nodos grandes
  • rutas predecibles
  • eficiencia alta
  • fragilidad alta

b) Malla

  • muchos nodos pequeños
  • rutas múltiples
  • eficiencia algo menor
  • resiliencia mucho mayor

Doctrina emergente: sacrificar algo de eficiencia para ganar supervivencia.

5.5 Principios de diseño para una logística resiliente

Aquí bajamos a principios operativos claros.

5.5.1 Dispersión logística sistemática
a) depósitos pequeños
b) stocks distribuidos
c) ocultación multispectral
d) movilidad de almacenes

La logística deja de ser “almacenar” y pasa a ser “dispersar y sobrevivir”.

5.5.2 Redundancia de rutas y medios
a) rutas alternativas
b) medios alternativos (tierra, aire, mar)
c) capacidad de cambiar de plan en minutos

5.5.3 Operación degradada prevista
El sistema debe poder funcionar con:

a) GPS degradado
b) enlaces intermitentes
c) mando parcial
d) inventarios incompletos

Si no puedes operar degradado, estás diseñado para perder.

5.5.4 Gestión de firma
No solo ocultación, también patrón.

a) variar horarios
b) variar rutas
c) evitar rutinas
d) usar señuelos logísticos

El enemigo aprende patrones: hay que negarle patrones.

 

5.6 Autonomía: ¿más vulnerable o robusta? depende del nivel de control

La autonomía puede ser robusta si se diseña con “seguridad por defecto”.

a) Autonomía sin seguridad
Es una invitación al sabotaje.

b) Autonomía con seguridad estructural
Puede ser superior a la logística tradicional, porque permite dispersión y velocidad.

Aquí entran medidas clave:

5.6.1 Navegación resiliente
a) navegación inercial
b) mapas pre-cargados
c) referencias terrestres
d) capacidad de retorno seguro

5.6.2 Comunicación resistente
a) enlaces redundantes
b) modos silenciosos
c) comunicaciones de baja probabilidad de interceptación

5.6.3 Ciberseguridad de grado militar
a) sistemas aislados por segmentos
b) autenticación fuerte
c) cifrado end-to-end
d) detección de intrusión

5.6.4 Principio “si dudas, detente”
Si el sistema detecta anomalía:

a) no continúa ciegamente
b) entra en modo seguro
c) solicita intervención humana

5.7 Drones de reabastecimiento: ventaja táctica y riesgo de saturación

Los drones logísticos pueden cambiar el combate, pero también pueden ser neutralizados.

a) Ventajas

  • reabastecimiento rápido
  • entrega a unidades aisladas
  • reducción de convoyes

b) Riesgos

  • vulnerables a EW
  • vulnerables a interceptación
  • vulnerables a saturación enemiga

c) Doctrina recomendada
Los drones logísticos no sustituyen la logística tradicional: la complementan para ventanas críticas.

5.8 La logística como objetivo prioritario: defensa activa y pasiva

Si la logística es el centro de gravedad, hay que defenderla.

a) Defensa pasiva

  • camuflaje
  • dispersión
  • ocultación
  • movilidad

b) Defensa activa

  • C-UAS alrededor de nodos
  • EW defensiva
  • patrullas antidrón
  • interceptación selectiva

c) Defensa cognitiva

  • detectar patrones de ataque enemigo
  • anticipar campañas de interdicción
  • mover stocks antes del golpe

La defensa logística no es “proteger almacenes”: es maniobrar stocks.

5.9 El nuevo rol del oficial logístico: de gestor a arquitecto de resiliencia

En guerra autónoma, el oficial logístico deja de ser solo administrador. Se convierte en diseñador de sistema.

a) Debe entender

  • ciberseguridad
  • guerra electrónica
  • firma electromagnética
  • redundancia de redes

b) Debe coordinar con operaciones
La logística ya no apoya: co-determina la maniobra.

c) Debe pensar como enemigo
Dónde atacaría, qué nodo destruiría, qué patrón explotaría.

5.10 Síntesis: la logística autónoma gana la guerra si sobrevive al ataque invisible

La autonomía puede hacer la logística:

  • más rápida
  • más distribuida
  • menos expuesta
  • más eficiente

Pero también puede hacerla:

  • más hackeable
  • más dependiente de datos
  • más vulnerable a EW
  • más frágil si no opera degradado

La doctrina correcta no es “automatizar por automatizar”. Es construir una logística que sea un organismo resistente:

malla distribuida, redundante, móvil, capaz de operar degradada, y diseñada para que el enemigo no pueda colapsarla con un golpe único.

6. Formación del combatiente del futuro: del fusilero al “operador de sistemas”

La revolución de drones e IA no solo cambia armas y doctrinas: cambia al combatiente. Cambia lo que significa “estar en primera línea”. Porque en el campo de batalla actual, el soldado ya no es únicamente un portador de fusil. Es un nodo. Un punto de decisión dentro de una red de sensores, algoritmos y actuadores. Y si ese nodo no sabe interpretar, priorizar y actuar con criterio bajo saturación, la red se convierte en ruido y la fuerza se convierte en fragilidad.

Este cambio es profundo. No es un “curso de drones”. Es una transformación del perfil humano del combatiente: su mente, su entrenamiento, su cultura táctica, su relación con la tecnología y su capacidad de sostener el juicio cuando el sistema empuja a delegar.

El combatiente del futuro no será un técnico frío ni un guerrero analógico. Será una síntesis: un operador de sistemas integrados con alma castrense.

6.1 El soldado como nodo: de unidad individual a elemento de red

Antes, la unidad táctica se definía por su potencia orgánica: armas, movilidad, cohesión.

Ahora, una unidad se define por su conectividad y su capacidad de producir efectos.

a) El soldado recibe datos
De drones, sensores, inteligencia, IA.

b) El soldado produce datos
Marca objetivos, reporta, alimenta el sistema.

c) El soldado ejecuta efectos
Puede lanzar drones, activar EW, guiar fuegos, operar municiones merodeadoras.

El soldado deja de ser solo fuerza física: se convierte en interfaz entre mundo real y sistema digital.

6.2 Competencias esenciales del operador de sistemas integrados

El perfil de competencias debe rediseñarse en dos grandes bloques: técnico-cognitivo y castrense-moral. Ambos son inseparables.

6.2.1 Competencias técnicas (operación de sistemas)

6.2.1.1 Gestión de drones y sensores
a) pilotaje básico y avanzado
b) operación en condiciones degradadas
c) control de enjambres simples
d) empleo táctico: reconocimiento, ataque, señuelo

6.2.1.2 Interpretación de datos y fusión de información
a) lectura de feeds ISR
b) identificación de patrones
c) detección de anomalías
d) comprensión de incertidumbre (no confundir “probable” con “cierto”)

6.2.1.3 Conocimiento práctico de guerra electrónica
a) qué es jamming
b) qué es spoofing
c) disciplina de emisiones (EMCON)
d) procedimientos cuando se pierde enlace

6.2.1.4 Ciberhigiene operativa
a) protección de terminales
b) autenticación
c) gestión de claves
d) conducta ante intrusión o sospecha

6.2.1.5 Operación de sistemas de fuego conectados
a) designación de blancos
b) coordinación de fuegos
c) integración con artillería y apoyo aéreo
d) control de daños colaterales

6.2.1.6 Mantenimiento básico y resiliencia material
a) reparación de emergencia
b) cambio rápido de módulos
c) gestión de baterías y energía
d) redundancia y repuestos críticos

El combatiente del futuro no puede ser dependiente de “un especialista”. Debe ser funcional en primera línea con autonomía técnica básica.

6.3 Competencias castrenses tradicionales (más necesarias que nunca)

Aquí hay un error común: creer que la tecnología reemplaza virtudes militares. Ocurre lo contrario. La saturación tecnológica exige más carácter, no menos.

6.3.1 Liderazgo bajo presión

a) tomar decisiones con información incompleta
b) sostener al equipo emocionalmente
c) mantener disciplina sin rigidez ciega

6.3.2 Iniciativa táctica

a) actuar cuando el plan se rompe
b) improvisar con criterio
c) operar sin enlace superior

6.3.3 Resiliencia psicológica

a) tolerar saturación y vigilancia constante
b) soportar fatiga cognitiva
c) resistir la ansiedad de la transparencia total

6.3.4 Ética operativa

a) distinguir objetivos legítimos
b) respetar ROE incluso bajo presión
c) no delegar moralidad en la máquina

6.3.5 Cohesión y confianza

En guerra de redes, la cohesión sigue siendo el pegamento humano. Sin ella, el sistema se fragmenta.

6.4 La nueva carga mental: fatiga cognitiva y saturación de decisión

La guerra algorítmica produce un fenómeno nuevo: la fatiga de decisión acelerada.

a) El soldado recibe demasiada información
Más datos no significa más claridad.

b) La presión por actuar rápido aumenta
Porque el enemigo también acelera.

c) La incertidumbre se vuelve permanente
No hay descanso mental: siempre hay amenaza.

Esto exige entrenar:

6.4.1 Priorización bajo saturación
Qué mirar, qué ignorar, qué confirmar.

6.4.2 Gestión del estrés cognitivo
Respiración, foco, protocolos de calma operativa.

6.4.3 Disciplina del silencio
Saber operar sin emitir, sin hablar, sin depender del sistema.

6.5 Entrenamiento doctrinal: formar criterio, no solo habilidades

El gran riesgo de la formación técnica es crear operadores que saben manejar sistemas, pero no saben pensar la guerra.

Por eso, el entrenamiento debe incluir doctrina.

6.5.1 Pensamiento táctico en entorno transparente

a) moverse sin ser visto
b) ocultación multispectral
c) engaño algorítmico básico

6.5.2 Operación degradada

a) combate sin GPS
b) combate sin enlace
c) combate con sensores cegados

 6.5.3 Contramedidas antidrón (C-UAS)

a) detección
b) reacción inmediata
c) coordinación de defensa activa/pasiva

6.5.4 Cultura de aprendizaje rápido

a) after action reviews constantes
b) corrección sin castigo
c) adaptación semanal, no anual

La doctrina en este entorno se escribe casi en tiempo real.

6.6 El equilibrio humano–máquina: evitar dos extremos letales

Hay dos errores simétricos.

a) Extremo 1: tecnofetichismo
Creer que la IA “sabe”. Resultado: delegación ciega.

b) Extremo 2: rechazo analógico
Creer que la tecnología debilita. Resultado: inferioridad.

El combatiente del futuro debe operar en equilibrio:

usar la máquina como acelerador,
pero sostener el juicio como límite.

6.7 Perfil de mentalidad del operador del futuro

Podemos definir una mentalidad doctrinal:

6.7.1 Humildad técnica
Saber que el sistema puede fallar.

6.7.2 Curiosidad táctica
Aprender continuamente, detectar patrones.

6.7.3 Disciplina de procedimiento
En entorno saturado, el error pequeño mata.

6.7.4 Autonomía responsable
Capacidad de actuar sin órdenes, pero dentro de ROE.

6.7.5 Coraje moral
Decidir “no” cuando el sistema empuja a disparar.

Este punto es crucial: la guerra autónoma exige más conciencia ética, no menos.

 6.8 Entrenamiento progresivo: escalera formativa propuesta

Para hacerlo aplicable, proponemos una escalera:

6.8.1 Nivel básico
a) operación de dron individual
b) navegación degradada
c) identificación de amenazas C-UAS

6.8.2 Nivel intermedio
a) integración con fuego indirecto
b) empleo táctico de enjambres simples
c) procedimientos EW básicos

6.8.3 Nivel avanzado
a) coordinación multi-dominio
b) gestión de datos bajo engaño
c) liderazgo de célula de sistemas

6.8.4 Nivel experto
a) mando de red táctica
b) toma de decisión con IA asistente
c) gestión de escalada y ROE complejas

6.9 El nuevo ideal de combatiente: tecnológicamente capaz, moralmente sólido

La tecnología cambia herramientas.
Pero el núcleo del soldado no puede perderse.

Porque si el combatiente se convierte en un operador técnico sin virtud, el ejército gana eficiencia… y pierde alma. Y un ejército sin alma es peligroso para el enemigo, pero también para sí mismo.

El combatiente del futuro debe ser:

  • competente en sistemas
  • disciplinado en procedimientos
  • fuerte psicológicamente
  • lúcido moralmente
  • capaz de liderar bajo presión
  • capaz de operar degradado

 6.10 Síntesis: el arma decisiva sigue siendo el ser humano… pero un humano aumentado por doctrina

En la guerra de drones e IA, la plataforma importa.
El algoritmo importa.
La red importa.

Pero el factor decisivo sigue siendo quién sostiene el juicio cuando todo acelera.

El operador de sistemas integrados no es un sustituto del soldado: es su evolución. Y esa evolución debe preservar lo esencial:

liderazgo, iniciativa, resiliencia y ética.

Porque la máquina puede ejecutar.
Pero solo el ser humano puede responder por lo que ejecuta.

CONCLUSIÓN

La guerra siempre ha sido transformación, pero hay momentos en los que esa transformación no es gradual: es una ruptura. Y la irrupción masiva de drones y sistemas de inteligencia artificial está produciendo precisamente eso: un cambio de era. No porque aparezca un arma nueva, sino porque cambia la naturaleza del combate como sistema. El campo de batalla se vuelve transparente, saturado, acelerado y, al mismo tiempo, profundamente vulnerable a la manipulación de datos, a la guerra electrónica y al error amplificado por la velocidad.

En este nuevo escenario, el enemigo ya no necesita superioridad clásica para imponerse. Le basta con saturar, degradar y desorganizar. Le basta con atacar la coherencia del sistema: tu percepción, tu mando, tu logística y tu capacidad de sostener el ritmo. Por eso la doctrina tradicional no desaparece, pero sí se ve obligada a reformularse. La concentración de fuerzas se convierte en concentración de efectos distribuidos. La defensa en profundidad deja de ser solo escalonamiento físico y pasa a ser resiliencia sistémica. El engaño se traslada del terreno visible al espectro electromagnético y al dominio algorítmico. Y la retaguardia, sencillamente, deja de existir como espacio seguro: toda profundidad es frente.

El ciclo OODA, corazón de la ventaja operativa, entra en una mutación decisiva. La velocidad ya no es humana: es algorítmica. Y ahí nace la paradoja más peligrosa de esta era: la IA puede darte superioridad, pero también puede precipitarte al desastre si acelera decisiones tomadas sobre datos contaminados o bajo saturación. Por eso el objetivo doctrinal no es solo “cerrar el OODA más rápido”, sino cerrarlo más rápido y más robusto. Porque el enemigo ya no combate solo con fuego: combate contra tu capacidad de decidir con lucidez.

En este marco aparece una nueva trinidad del poder militar: algoritmos, datos y autonomía. Los algoritmos se convierten en el elemento cognitivo del combate, los datos pasan a ser terreno estratégico y la autonomía se transforma en el músculo que ejecuta sin fricción humana. Quien domina este triángulo domina el ritmo. Pero también queda expuesto a su propia fragilidad: dependencia de conectividad, vulnerabilidad cibernética, manipulación de percepción y riesgo de pérdida de control. La guerra moderna premia la tecnología, sí, pero castiga con dureza la dependencia tecnológica sin soberanía, sin redundancia y sin capacidad de operar degradado.

El punto más crítico, sin embargo, es moral y político: la delegación de letalidad. Cuando una máquina participa en la decisión de atacar, las Reglas de Enfrentamiento dejan de ser un marco administrativo y se convierten en el dique que contiene la escalada y protege la legitimidad. En un mundo de autonomía, la responsabilidad no puede evaporarse: debe ser trazable, auditada y humana. Distinción, proporcionalidad y control significativo humano no son conceptos abstractos: son condiciones de supervivencia estratégica. Porque la victoria táctica obtenida por automatismo puede convertirse en derrota política por pérdida de legitimidad.

Y en el fondo, como siempre, la guerra se sostiene por lo que permite que todo lo demás exista: la logística. La autonomía puede hacerla más rápida, dispersa y eficiente, pero también puede volverla hackeable y dependiente de datos. El rediseño correcto no consiste en automatizar la cadena, sino en convertirla en malla: distribuida, redundante, móvil y capaz de sobrevivir bajo ataque invisible. La logística del futuro no será la más eficiente: será la más resiliente.

Finalmente, el cambio más profundo no está en las máquinas, sino en el combatiente. El soldado del futuro no será un fusilero clásico ni un técnico puro: será un operador de sistemas integrados con mentalidad castrense. Un nodo humano dentro de una red de sensores y actuadores, capaz de interpretar datos bajo presión, operar en degradación, resistir la saturación cognitiva y, sobre todo, sostener el juicio moral cuando el sistema empuja a delegar. Porque en la guerra acelerada, el error ya no es solo un fallo táctico: puede ser un acontecimiento irreversible.

Si lo condensamos en una sola idea doctrinal, sería esta:

La revolución de drones e IA no cambia solo el “cómo se combate”; cambia lo que significa mandar, sostener y limitar la guerra.

Y por eso el desafío central del siglo XXI no será únicamente tecnológico. Será doctrinal, organizativo y humano: construir fuerzas capaces de operar en tiempo algorítmico sin perder el control, la responsabilidad y la legitimidad.

Puedes seguir explorando mi archivo completo de artículos en:
Biblioteca de conocimiento https://josr957.github.io/Conocimiento/


Comentarios

Entradas populares de este blog