LA
REVOLUCIÓN DEL COMBATE: DRONES, IA Y EL NACIMIENTO DE UNA NUEVA DOCTRINA
INTRODUCCIÓN
La
revolución del combate: drones, IA y el nacimiento de una nueva doctrina
Estamos
entrando en una etapa histórica en la que el campo de batalla deja de ser
únicamente un espacio físico y se convierte, cada vez más, en un sistema
cognitivo. Un entorno donde ver primero, decidir antes y golpear con precisión
ya no depende solo de la maniobra, la potencia de fuego o la moral, sino de la
capacidad de procesar información en tiempo real, resistir la saturación, negar
el espectro electromagnético al adversario y conservar algo que no se puede
automatizar del todo: el juicio humano.
La irrupción
masiva de drones —aéreos, terrestres y navales— y la integración acelerada de
inteligencia artificial están reescribiendo los fundamentos mismos de la
guerra. No hablamos de una evolución incremental, sino de una mutación
sistémica: proliferación de sensores baratos, ataques de precisión a bajo
coste, enjambres autónomos, guerra electrónica permanente, guerra de datos y
una nueva fragilidad logística. El resultado es un combate más transparente y,
al mismo tiempo, más engañoso; más rápido y, a la vez, más vulnerable al error
catastrófico.
En este nuevo
escenario, los principios clásicos no desaparecen por completo, pero sí se ven
forzados a transformarse. La concentración de fuerzas se enfrenta a la
detección y el ataque distribuido. El engaño ya no se limita al terreno
visible: se libra en el espectro, en los datos y en los algoritmos. La defensa
en profundidad ya no es solo escalonamiento físico: es redundancia de redes,
dispersión inteligente y supervivencia bajo saturación. La maniobra ya no se
mide solo en kilómetros, sino en ciclos OODA y latencia de decisión.
Este artículo
propone una reflexión doctrinal, pragmática y orientada a la acción, como la
que se produciría en un Estado Mayor o en un centro de pensamiento estratégico
contemporáneo. La pregunta central es simple y brutal: ¿cómo se combate, se
manda, se sostiene y se limita éticamente una fuerza militar cuando el enemigo
puede observarte desde arriba, atacarte con enjambres baratos y acelerar el
ciclo de decisión con máquinas?
Para
responderlo, estructuramos el análisis en seis partes:
- Análisis de vulnerabilidad y
adaptación doctrinal ante enjambres de drones
- El ciclo OODA en tiempo
algorítmico: ventaja operativa y riesgo de escalada
- La nueva trinidad del poder:
algoritmos, datos y autonomía como pilares estratégicos
- Reglas de enfrentamiento (ROE) para
sistemas autónomos: responsabilidad y salvaguardas
- La logística en la era de la guerra
autónoma: resiliencia ante ciberataques y saturación
- Formación del combatiente del
futuro: del fusilero al operador de sistemas integrados
La introducción
masiva de drones —y, sobre todo, de enjambres coordinados— no añade simplemente
“una nueva amenaza” al catálogo táctico. Cambia el propio lenguaje del combate.
Porque el dron no es solo un vector de ataque: es un sensor, un repetidor, un señuelo,
un arma de precisión, un multiplicador de alcance y una forma barata de saturar
defensas caras. Y cuando ese dron deja de actuar como unidad aislada y pasa a
operar como enjambre, el campo de batalla se convierte en un problema de
densidad, de persistencia y de economía de destrucción.
Desde el punto
de vista de un oficial de Estado Mayor, el análisis doctrinal debe comenzar con
una pregunta fría: ¿qué partes de nuestra defensa táctica se vuelven
vulnerables por diseño cuando el adversario puede desplegar cientos o miles de
sistemas baratos, distribuidos, persistentes y potencialmente autónomos?
Y la respuesta
es incómoda: casi todo lo que depende de concentración, exposición y
previsibilidad.
1.1 La nueva
vulnerabilidad: saturación barata contra defensa cara
En la guerra
industrial clásica, la defensa se construía sobre plataformas relativamente
escasas y costosas: sistemas antiaéreos, blindados, artillería, radares. La
lógica era: proteger activos críticos con defensas críticas.
Los enjambres
rompen esa lógica por una asimetría económica:
a) El atacante
puede gastar poco para obligarte a gastar mucho
Un dron FPV o munición merodeadora puede costar cientos o miles. Interceptarlo
puede costar decenas o cientos de miles.
b) El atacante
puede permitirse pérdidas masivas
Un enjambre está diseñado para perder unidades y seguir funcionando.
c) El defensor
no puede interceptar todo
Si la defensa depende de interceptación perfecta, está condenada.
Esto obliga a
pasar de “defensa por destrucción” a “defensa por negación, degradación y
supervivencia”.
1.2
Reformulación de la concentración de fuerzas: de masa física a masa distribuida
La
concentración de fuerzas ha sido un principio clásico: reunir potencia en el
punto decisivo. Pero en un campo saturado de drones, la concentración física se
convierte en un imán.
a) La masa
visible es masa atacable
Cualquier concentración es detectada y atacada.
b) La
concentración se desplaza al dominio de efectos
No se concentra “gente y vehículos”, se concentra:
- fuego coordinado
- efectos EW (guerra electrónica)
- sensores fusionados
- ataques sincronizados
c) Nueva
doctrina
La masa ya no es densidad física, es densidad de efectos.
El comandante
debe aprender a “concentrar sin concentrarse”.
1.3 El
engaño se vuelve algorítmico: camuflaje físico + camuflaje de datos
El engaño sigue
siendo vital, pero cambia de naturaleza.
a) Camuflaje
clásico
Ocultación visual, térmica, acústica.
b) Camuflaje
electromagnético
Negar firmas de emisión, reducir radiación, controlar comunicaciones.
c) Camuflaje de
datos
El enemigo no solo observa con sensores: observa con algoritmos. Por tanto, el
engaño debe incluir:
- falsos patrones de actividad
- señuelos electrónicos
- tráfico simulado
- objetivos falsos generados para
saturar IA enemiga
La guerra del
engaño se traslada del ojo humano al clasificador automático.
La defensa en
profundidad clásica consiste en capas: primera línea, segunda, reservas,
fuegos.
Con enjambres,
las capas físicas no bastan si todas son transparentes.
a) Profundidad
física
Sí: posiciones escalonadas, dispersión, redundancia de rutas.
b) Profundidad
de red
Capacidad de mantener mando y control bajo:
- interferencia
- spoofing
- pérdida de enlaces
- saturación
c) Profundidad
logística
Capacidad de seguir combatiendo aunque el enemigo ataque depósitos, rutas y
nodos.
d) Profundidad
de percepción
Capacidad de seguir “viendo” aunque te nieguen sensores.
La defensa en
profundidad se convierte en defensa por supervivencia sistémica.
1.5
Obsolescencia parcial de ciertas “zonas seguras” tácticas
En el paradigma
clásico, existían áreas relativamente seguras:
- retaguardia táctica
- puestos de mando ocultos
- zonas de reabastecimiento
- áreas de concentración previa
Los drones
reducen esas zonas.
a) La
retaguardia se vuelve permeable
El alcance de drones y municiones merodeadoras convierte el “detrás” en
“dentro”.
b) Los puestos
de mando se vuelven objetivos prioritarios
Porque el enjambre puede buscar nodos de mando por firma electrónica.
c) El
reabastecimiento se vuelve combate
Mover munición o combustible ya no es logística: es una misión bajo amenaza.
La consecuencia
doctrinal es clara: toda la profundidad es frente.
1.6
Adaptación doctrinal: de “proteger activos” a “gestionar exposición”
En este nuevo
entorno, la defensa no puede basarse solo en proteger todo. Hay que gestionar
exposición.
a) Exposición
como variable táctica
Cuánto tiempo, cuánta firma, cuánta densidad, cuánta emisión.
b) Regla
doctrinal emergente
Si te detectan, te atacan. Si te atacan, debes sobrevivir.
c) Medidas
clave
- dispersión inteligente
- movilidad constante
- disciplina EMCON
- redundancia de enlaces
- camuflaje multispectral
- señuelos sistemáticos
El objetivo no
es “ser invisible”, sino ser inviable como objetivo.
1.7 La
defensa antidrón: del “kill” al “deny-degrade-disrupt”
La defensa
antidrón clásica tiende a pensar en derribar. Pero con enjambres, derribar todo
es imposible.
a) Kill:
destruir
Necesario, pero insuficiente.
b) Deny: negar
Negar navegación, negar enlace, negar objetivos.
c) Degrade:
degradar
Reducir precisión, reducir coordinación, reducir persistencia.
d) Disrupt:
desorganizar
Romper el enjambre, fragmentarlo, obligarlo a actuar como unidades aisladas.
Esta lógica
crea un enfoque más realista: no se busca perfección, se busca ruptura del
sistema enemigo.
1.8 Cambios
en la maniobra: moverse sin ser visto, golpear sin ser localizado
La maniobra
clásica buscaba posición ventajosa.
La maniobra en
campo saturado busca:
a) Movilidad de
baja firma
Moverse minimizando emisión y detectabilidad.
b) Ventanas de
oportunidad
La maniobra ocurre cuando:
- el enemigo está cegado
- la EW crea un hueco
- se saturan sus sensores
- se induce error en su IA
c) Maniobra por
negación
No solo moverse, sino negar al enemigo su capacidad de observar y decidir.
El movimiento
deja de ser geografía y se convierte en gestión de percepción.
1.9
Reescritura de los manuales de defensa táctica: principios reformulados
Podemos
sintetizar qué principios deben reformularse:
a)
Concentración de fuerzas
De masa física a masa de efectos distribuidos.
b) Defensa en
profundidad
De capas físicas a resiliencia sistémica (red, logística, percepción).
c) Engaño
De ocultación visual a engaño multispectral y algorítmico.
d) Protección
De “defender todo” a “gestionar exposición y supervivencia”.
e) Retaguardia
De zona segura a espacio permeable bajo amenaza constante.
1.10
Conclusión operativa de la Parte 1: el enemigo ya no es solo fuego, es
saturación cognitiva
El enjambre no
busca solo destruir. Busca saturar tu capacidad de decidir. Busca que gastes
recursos, que emitas, que reveles posiciones, que te paralices o te disperses
sin control.
Por eso, la
adaptación doctrinal no consiste solo en añadir “antidrones”. Consiste en
rediseñar la defensa táctica como un sistema completo:
- percepción bajo ataque
- mando bajo degradación
- supervivencia bajo saturación
- maniobra bajo transparencia
- logística bajo amenaza
Si esto se
entiende, entonces se puede combatir en el nuevo paradigma.
2. El ciclo
OODA en tiempo algorítmico: ventaja o riesgo
Durante
décadas, el ciclo OODA (Observar–Orientar–Decidir–Actuar) fue una forma
elegante de explicar por qué algunos ejércitos vencen incluso con menos medios:
no porque disparen más, sino porque comprenden antes, deciden mejor y actúan
con más velocidad y coherencia que el adversario. Pero en la guerra actual, ese
ciclo entra en una mutación radical: pasa del tiempo humano al tiempo
algorítmico.
Y aquí aparece
una verdad incómoda: cuando los algoritmos aceleran el ciclo, también pueden
acelerar el error. La IA no solo puede darte ventaja, también puede
precipitarte al desastre si decides sobre datos contaminados, bajo saturación,
o si delegas demasiado en sistemas que no entienden el contexto moral ni
estratégico.
La pregunta ya
no es solo “¿cómo cierro mi OODA más rápido?”
La pregunta real es: “¿cómo cierro mi OODA más rápido sin perder el juicio?”
2.1 El OODA
clásico: velocidad cognitiva y desorganización del enemigo
El OODA de John
Boyd no era un simple esquema de mando: era una teoría de victoria.
a) Observar
Recoger información del entorno.
b) Orientar
Interpretar esa información con cultura, experiencia, doctrina, inteligencia,
intuición.
c) Decidir
Elegir un curso de acción.
d) Actuar
Ejecutar y retroalimentar el ciclo.
La clave era
esta: si entras en el OODA del enemigo, lo desorganizas. Le impones ritmo. Lo
obligas a reaccionar en lugar de actuar.
2.2 La
mutación actual: del OODA humano al OODA de máquina
Con drones,
sensores persistentes y análisis automatizado, la fase de observación se
acelera brutalmente. Y con IA, la orientación y la decisión pueden
automatizarse parcial o totalmente.
a) Observación
persistente
No hay “momentos de niebla”. Hay vigilancia continua.
b) Orientación
asistida por IA
La IA clasifica objetivos, detecta patrones, sugiere amenazas.
c) Decisión
semi-automatizada
Sistemas recomiendan cursos de acción, priorizan blancos, asignan recursos.
d) Actuación
automatizada
Drones, municiones merodeadoras, fuegos coordinados por redes.
Esto crea un
nuevo fenómeno: OODA comprimido.
2.3 Ventaja
operativa: quien domina el tiempo algorítmico domina el ritmo
En términos
puramente militares, la ventaja es evidente:
a) Menos
latencia
La IA reduce el tiempo entre detección y acción.
b) Mayor
precisión
La fusión de sensores mejora la calidad del targeting.
c) Capacidad de
saturación
Los algoritmos coordinan múltiples plataformas simultáneamente.
d) Persistencia
La IA no se cansa, no pierde atención, no tiene fatiga.
El comandante
obtiene una capacidad que antes era imposible: mando sobre cientos de
microacciones simultáneas.
2.4 El
problema central: OODA degradado y guerra de datos contaminados
Aquí está el
punto crítico que acordamos introducir: el OODA puede degradarse.
a) Observar no
es ver, es recibir señales
Y esas señales pueden ser:
- falsas
- incompletas
- manipuladas
- saturadas
b) Orientar
depende de contexto
La IA orienta por patrones, pero no comprende intenciones humanas ni ambigüedad
moral.
c) Decidir
sobre basura acelera la derrota
Si el sistema decide rápido sobre datos malos, no estás cerrando el OODA: estás
cerrando un círculo de error.
Esto produce
una paradoja moderna:
Velocidad +
datos contaminados = catástrofe más rápida.
2.5 ¿Dónde
delegar en IA sin perder criterio humano?
El punto no es
“IA sí o no”. El punto es dónde y cómo.
Podemos dividir
el ciclo OODA por niveles de delegación.
2.5.1
Observación: delegación alta, pero con verificación
La IA es excelente para:
- detectar movimiento
- clasificar firmas
- señalar anomalías
Pero requiere:
a) verificación
cruzada
b) sensores redundantes
c) filtros contra spoofing
2.5.2
Orientación: delegación media, porque aquí vive la interpretación
La IA puede ayudar a:
- sugerir hipótesis
- detectar correlaciones
- estimar probabilidades
Pero el humano
debe mantener:
a) comprensión
del objetivo político
b) conciencia de escalada
c) lectura del entorno social y moral
2.5.3 Decisión:
delegación limitada en escenarios letales
Aquí es donde el riesgo se dispara.
La IA puede:
- proponer opciones
- calcular riesgos
- optimizar recursos
Pero el humano
debe decidir cuando:
a) hay
letalidad directa
b) hay riesgo de daño colateral
c) hay incertidumbre alta
d) hay implicaciones estratégicas
2.5.4
Actuación: delegación variable según control y entorno
La ejecución puede automatizarse, pero debe existir:
a) capacidad de
abortar
b) capacidad de reorientar
c) supervisión humana real
2.6 El punto
de ruptura: cuándo la IA aumenta el riesgo de escalada no deseada
El riesgo no es
solo táctico. Es estratégico.
a) La IA puede
interpretar una amenaza como certeza
Si clasifica mal, puede desencadenar fuego prematuro.
b) El enemigo
puede provocar respuestas automáticas
Usar señuelos o provocaciones para activar tu sistema.
c) La velocidad
reduce espacio para diplomacia
Cuando el ciclo es instantáneo, el tiempo político desaparece.
d) La escalada
se vuelve mecánica
No escalas porque lo decides: escalas porque el sistema reacciona.
Esto es
gravísimo: el conflicto puede subir de nivel por automatismo.
2.7 Riesgos
operativos concretos: el enemigo te puede “hackear el OODA”
En guerra
algorítmica, atacar al enemigo no es solo destruir sus fuerzas. Es destruir su
percepción.
a) Decepción de
sensores
Señuelos térmicos, reflectores, drones señuelo.
b) Spoofing de
navegación
GPS spoofing, alteración de referencias.
c) Saturación
informativa
Demasiados contactos, demasiadas alertas.
d) Ataques
cibernéticos
Manipulación de sistemas de mando, datos falsos.
e) Guerra
electrónica
Negación de enlaces, degradación de comunicaciones.
El enemigo no
necesita ganarte en fuego. Le basta con desorganizar tu ciclo cognitivo.
2.8 Diseño
doctrinal: OODA robusto, no solo rápido
Aquí está la
conclusión doctrinal: la velocidad no basta. Necesitas robustez.
a) Robustez
significa redundancia
Múltiples sensores, múltiples fuentes, múltiples rutas de comunicación.
b) Robustez
significa degradación controlada
Si pierdes IA, debes seguir pudiendo combatir.
c) Robustez
significa entrenamiento humano
Los mandos deben saber operar en:
- silencio electrónico
- mapas incompletos
- decisiones con incertidumbre
d) Robustez
significa “capacidad de parar”
Un sistema rápido sin freno es una máquina de escalada.
2.9
Salvaguardas imprescindibles: mantener criterio humano sin frenar la guerra
moderna
Un comandante
debe construir salvaguardas técnicas y humanas.
a)
Human-on-the-loop como mínimo
El humano supervisa y puede intervenir.
b) Umbrales de
letalidad
La IA puede actuar sola solo bajo condiciones estrictas.
c) Regla de
incertidumbre
Si la confianza del sistema cae por debajo de un umbral, se bloquea
automatismo.
d) Confirmación
multifuente
No se dispara por una sola señal.
e) Registro y
trazabilidad
Toda decisión automatizada debe ser auditable.
2.10
Síntesis: el OODA algorítmico es ventaja si no destruye el juicio
La guerra
actual premia al que acelera. Pero castiga al que acelera sin criterio.
El OODA
algorítmico ofrece ventaja real:
- más velocidad
- más coordinación
- más precisión
- más saturación
Pero introduce
riesgos nuevos:
- datos contaminados
- escalada automática
- decisiones sin contexto
- error amplificado por velocidad
Por eso, la
doctrina del futuro no debe buscar solo “OODA más rápido”. Debe buscar:
OODA más rápido
y robusto.
3. La nueva
trinidad del poder: algoritmos, datos y autonomía
Clausewitz
entendió la guerra como un fenómeno humano total. Su famosa “trinidad”
—gobierno, ejército y pueblo— describía el equilibrio inestable entre política,
violencia organizada y pasión social. Era una arquitectura conceptual para
comprender por qué la guerra no es solo combate: es voluntad, legitimidad y
capacidad de sostener el esfuerzo.
Pero hoy, sin
negar esa trinidad clásica, aparece una nueva capa que no existía en el siglo
XIX: una dimensión cognitiva-tecnológica que reorganiza la forma en que se
genera poder militar. En la guerra de drones e IA, el poder ya no se concentra
únicamente en divisiones, arsenales o reservas humanas. Se concentra en algo
más abstracto y, por eso mismo, más decisivo:
- algoritmos que deciden
- datos que definen la realidad
operativa
- autonomía que ejecuta sin fricción
humana
Esta es la
nueva trinidad militar del siglo XXI. No sustituye a Clausewitz: lo actualiza.
Porque si Clausewitz nos dio el mapa humano de la guerra, esta trinidad nos da
el mapa sistémico de la guerra algorítmica.
La trinidad
gobierno–ejército–pueblo sigue siendo válida en el plano estratégico-político.
Pero cuando bajamos al nivel táctico-operacional, la guerra actual se decide en
ritmos y dominios que Clausewitz no pudo anticipar:
a) La
percepción del campo de batalla ya no es humana
Es una fusión de sensores y modelos.
b) La decisión
ya no es exclusivamente humana
Es una recomendación algorítmica, a veces automática.
c) La acción ya
no depende del soldado en primera línea
Depende de sistemas remotos, enjambres, redes y automatismos.
Por eso, sin
negar la política, aparece un nuevo triángulo de poder que determina quién
domina el combate moderno.
3.2 Pilar 1:
Algoritmos como “elemento cognitivo” del combate
Los algoritmos
se convierten en el cerebro operacional del sistema.
a) Qué hacen
realmente los algoritmos
- detectan amenazas
- priorizan blancos
- optimizan rutas y recursos
- asignan sensores y fuegos
- predicen comportamiento enemigo
- recomiendan cursos de acción
b) Algoritmos
como mando invisible
El comandante sigue siendo responsable, pero el algoritmo se vuelve el filtro a
través del cual ve el mundo.
c) Riesgo
doctrinal
Si el algoritmo está sesgado, si se entrena mal o si opera sobre datos
contaminados, no es un apoyo: es una distorsión sistemática.
En guerra
algorítmica, un error de software puede equivaler a una derrota operativa.
3.3 Pilar 2:
Datos como terreno estratégico
Aquí está la
revolución silenciosa: el dato se convierte en terreno.
Antes el
terreno era colinas, ríos, carreteras.
Ahora el terreno también es:
- enlaces
- firmas electromagnéticas
- patrones de movilidad
- bases de datos de objetivos
- modelos predictivos
- mapas de interferencia
- inteligencia de señales
a) Quien
controla los datos controla la realidad operativa
Si tu sistema “ve” lo que el enemigo quiere que veas, ya estás dentro de su
guerra.
b) Los datos no
son neutrales
Están sujetos a:
- niebla
- manipulación
- ruido
- saturación
- engaño deliberado
c) Guerra por
el dato
La lucha ya no es solo por destruir fuerzas, sino por:
- negar información
- contaminar información
- robar información
- generar falsas realidades
operativas
Esto convierte
al campo de batalla en un entorno donde la verdad es disputada.
3.4 Pilar 3:
Autonomía como factor de disrupción
La autonomía
reduce fricción humana. Y eso, en guerra, es poder.
a) Qué
significa autonomía
Sistemas capaces de:
- navegar
- seleccionar rutas
- coordinarse
- identificar objetivos
- ejecutar misiones
sin control continuo humano.
b) La autonomía
multiplica masa operativa
No necesitas más soldados para operar más sistemas. Necesitas redes, energía y
control.
c) Autonomía =
velocidad + saturación
Permite enjambres, persistencia y reacción instantánea.
d) Pero
autonomía también multiplica riesgo
Porque cuando se delega acción, se delega posibilidad de error.
Autonomía es
fuerza.
Pero también es un amplificador de consecuencias.
3.5 La nueva
trinidad operativa: cómo se retroalimentan
Estos tres
pilares no actúan por separado. Se alimentan mutuamente.
a) Algoritmos
consumen datos
Sin datos, el algoritmo es ciego.
b) Datos
alimentan autonomía
Sin datos, la autonomía no tiene contexto.
c) Autonomía
genera más datos
Cada dron es un sensor que retroalimenta el sistema.
Esto crea un
bucle de poder:
más sensores →
más datos → mejores algoritmos → más autonomía → más control del entorno → más
sensores…
El que domina
este bucle domina el ritmo del combate.
3.6
Reconfiguración del mando: comandante, tecnología y combatiente
Esta trinidad
redefine roles tradicionales.
a) El
comandante ya no manda solo sobre fuerzas
Manda sobre sistemas socio-técnicos: humanos + máquinas + redes.
b) El
combatiente ya no es solo ejecutor
Es un nodo: opera sensores, interpreta datos, lanza efectos remotos.
c) La
tecnología deja de ser herramienta y se vuelve actor
No tiene voluntad, pero sí tiene comportamiento. Y ese comportamiento
condiciona decisiones.
Esto produce un
nuevo tipo de mando:
mando sobre la
complejidad.
3.7 El nuevo
centro de gravedad: coherencia del sistema
En Clausewitz,
el centro de gravedad podía ser un ejército principal, una capital, una
alianza.
En guerra
algorítmica, el centro de gravedad suele ser:
a) La
coherencia del sistema de mando y percepción
Si el sistema se fragmenta, el ejército pierde capacidad aunque conserve
medios.
b) La
resiliencia de redes y datos
Si pierdes datos, pierdes realidad.
c) La capacidad
de operar degradado
El enemigo intentará degradarte. El que sobrevive degradado gana.
La victoria se
decide en la capacidad de seguir funcionando cuando el sistema se rompe.
3.8 Nuevas
vulnerabilidades: cuando el triángulo se vuelve tu punto débil
Toda trinidad
de poder crea también una trinidad de vulnerabilidad.
a)
Vulnerabilidad algorítmica
- sesgos
- errores de entrenamiento
- fallos de interpretación
- dependencia de automatismos
b)
Vulnerabilidad de datos
- spoofing
- saturación
- manipulación
- pérdida de integridad
c)
Vulnerabilidad de autonomía
- pérdida de control
- escalada accidental
- comportamiento emergente del
enjambre
- captura o reprogramación
Cuanto más
dependes del triángulo, más te destruye si cae.
3.9 Doctrina
emergente: soberanía algorítmica y soberanía de datos
Aquí aparece
una consecuencia estratégica: un ejército moderno necesita soberanía
tecnológica.
a) Soberanía de
datos
- control de infraestructuras
- ciberseguridad
- integridad de sensores
- capacidad de operar sin “nube
externa”
b) Soberanía
algorítmica
- modelos propios
- entrenamiento propio
- validación y auditoría
- capacidad de actualizar bajo
presión
Un ejército que
depende de algoritmos ajenos depende de voluntades ajenas.
3.10
Síntesis: la nueva trinidad no elimina al humano, redefine dónde está su poder
La guerra sigue
siendo humana, pero el modo de generar poder cambia.
La trinidad
clásica explica por qué se entra en guerra y cómo se sostiene políticamente.
La nueva trinidad explica cómo se gana o se pierde en el terreno moderno.
Algoritmos: el
cerebro operacional.
Datos: el terreno disputado.
Autonomía: el músculo que ejecuta.
Y el
comandante, en medio, debe aprender a mandar sobre este triángulo sin ser
devorado por él. Porque en esta guerra, el que pierde el control de su sistema
no pierde solo una batalla: pierde su capacidad de existir como fuerza
coherente.
4. Reglas de
Enfrentamiento (ROE) para sistemas autónomos
Si hay un punto
donde la revolución tecnológica toca el nervio moral de la guerra, es aquí.
Porque una cosa es usar IA para clasificar señales, optimizar logística o
sugerir rutas. Y otra, mucho más grave, es delegar letalidad. Cuando entran en
juego sistemas autónomos capaces de atacar —drones kamikaze, municiones
merodeadoras, robots armados— las Reglas de Enfrentamiento dejan de ser un
documento operativo y se convierten en el muro que separa la guerra controlada
del accidente histórico.
El dilema es
simple de formular y complejo de sostener:
¿Cómo defines
distinción, proporcionalidad y responsabilidad cuando la decisión inmediata de
atacar la toma una máquina?
Lo que sigue es
un borrador doctrinal de ROE para operaciones con sistemas autónomos letales,
diseñado para ser aplicable en un entorno real, bajo presión, con guerra
electrónica, niebla de combate y riesgo de escalada.
4.1
Principios rectores: lo que nunca se negocia
Antes de
escribir reglas, hay que fijar los pilares.
4.1.1
Responsabilidad humana permanente
a) Toda acción letal debe ser atribuible a una cadena de mando humana
identificable.
b) La autonomía no puede diluir responsabilidad.
c) Si no se puede explicar quién autorizó, quién supervisó y bajo qué criterio,
el sistema es inaceptable.
4.1.2
Distinción efectiva
a) Un sistema solo puede atacar si puede discriminar objetivos legítimos con
una fiabilidad verificable.
b) Si el entorno impide distinción (civiles mezclados, señales ambiguas), el
sistema no actúa.
4.1.3
Proporcionalidad operacional
a) El daño esperado no puede ser excesivo respecto a la ventaja militar
concreta e inmediata.
b) La máquina puede estimar, pero el humano define el umbral.
4.1.4 Necesidad
militar y mínima fuerza
a) Se emplea la fuerza mínima necesaria para cumplir la misión.
b) La automatización no justifica sobreuso.
4.2
Clasificación doctrinal del control humano: HITL, HOTL, HOOTL
Aquí fijamos el
marco que ayer acordamos introducir como base estructural.
4.2.1
Human-in-the-loop (HITL)
a) El humano autoriza cada acción letal individual.
b) El sistema propone, pero no ejecuta sin confirmación.
Uso
recomendado: entornos con civiles, incertidumbre alta, riesgo político elevado.
4.2.2
Human-on-the-loop (HOTL)
a) El sistema puede ejecutar dentro de parámetros definidos.
b) El humano supervisa en tiempo real y puede abortar.
Uso
recomendado: defensa de punto, interceptación, entornos con reglas claras y
baja presencia civil.
4.2.3
Human-out-of-the-loop (HOOTL)
a) El sistema decide y ejecuta sin supervisión humana en tiempo real.
b) Solo se limita por programación previa.
Uso:
extremadamente restringido. Solo admisible en condiciones muy específicas, si
se admite.
Principio
doctrinal propuesto:
En sistemas letales, el estándar debe ser HITL o HOTL. HOOTL solo puede existir
como excepción altamente acotada y auditada.
4.3
Condiciones de empleo: cuándo se autoriza un sistema autónomo letal
4.3.1 Condición
A: entorno operacional “controlado”
a) Zona de combate claramente delimitada.
b) Ausencia probable de civiles.
c) Objetivos militares inequívocos.
4.3.2 Condición
B: identificación robusta multifuente
a) No se autoriza ataque por una sola fuente de datos.
b) Deben coincidir al menos dos de estas categorías:
- visual/IR
- radar
- señales electromagnéticas
- confirmación humana
- inteligencia previa verificada
4.3.3 Condición
C: confianza algorítmica mínima
a) El sistema debe reportar su nivel de confianza.
b) Si cae por debajo del umbral doctrinal, se bloquea el ataque.
4.3.4 Condición
D: enlace y abortabilidad garantizados
a) Si se pierde enlace de mando y no existe abortabilidad segura, se restringe
el empleo.
b) El sistema debe tener “kill switch” o retorno seguro.
Esta es la
clave ética.
4.4.1
Responsabilidad no es del algoritmo
a) La máquina no es sujeto moral.
b) No puede asumir culpa ni intención.
4.4.2
Responsabilidad se reparte en cadena humana
a) Autoridad de misión: quien decide emplear autonomía.
b) Autoridad de fuego: quien autoriza la ventana letal.
c) Supervisión: quien monitoriza.
d) Ingeniería y validación: quienes certifican el sistema.
e) Inteligencia: quien proporciona el contexto de objetivos.
4.4.3 Principio
de trazabilidad obligatoria
Cada acción letal debe generar:
a) registro de
datos
b) timestamp
c) parámetros de decisión
d) nivel de confianza
e) intervención humana (si la hubo)
Sin
trazabilidad no hay legitimidad.
4.5
Definición de “distinción” en sistemas autónomos
4.5.1
Distinción como capacidad verificable, no declarada
a) No basta con “la IA identifica objetivos”.
b) Debe demostrarse con pruebas y validación operativa.
4.5.2
Distinción bajo degradación
La guerra real incluye:
- humo
- interferencia
- señuelos
- ocultación
- condiciones nocturnas
- saturación
El sistema debe
tener comportamiento seguro bajo degradación:
a) si duda, no
dispara
b) si pierde sensores, se retira
c) si hay conflicto de datos, aborta
4.5.3
Prohibición de inferencias letales por patrón social
Se prohíbe atacar basándose solo en “patrones de comportamiento” ambiguos sin
confirmación.
Ejemplo: “grupo
corriendo” no equivale a “enemigo”.
4.6
Definición de “proporcionalidad” en decisiones de máquina
4.6.1 La
máquina puede estimar, el humano decide el marco
a) La IA calcula riesgo de daño colateral como probabilidad.
b) El mando fija el umbral aceptable.
4.6.2
Proporcionalidad dinámica
En combate, la proporcionalidad puede cambiar por contexto:
a) objetivo de
alto valor
b) entorno urbano
c) presencia civil
d) riesgo de escalada
El sistema debe
adaptarse a reglas variables y no operar con un único criterio fijo.
4.6.3
Prohibición de escalada automática
Un sistema autónomo no puede:
a) ampliar su
lista de objetivos por iniciativa propia
b) cambiar reglas de fuego sin autorización humana
c) atacar en represalia automática
4.7
Salvaguardas técnicas no negociables
4.7.1
Geofencing
a) Límites geográficos estrictos.
b) Si sale de la zona, aborta o retorna.
4.7.2
Timeboxing
a) Ventana temporal limitada.
b) Fuera de la ventana, no hay letalidad.
4.7.3
Identificación de amigo-enemigo (IFF) reforzada
a) Protocolos anti-spoofing.
b) Redundancia.
4.7.4
Resistencia a guerra electrónica
a) comportamiento seguro ante jamming
b) no “disparar a ciegas” si pierde guía
4.7.5 Kill
switch físico y lógico
a) capacidad de abortar por mando
b) capacidad de autodesactivación segura
4.7.6 Registro
inalterable
a) logs cifrados
b) protección contra manipulación post-acción
4.8
Salvaguardas humanas no negociables
4.8.1 Formación
específica en ROE para autonomía
No basta con formar en tácticas. Hay que formar en:
a) límites
legales
b) sesgos de IA
c) riesgo de escalada
d) decisiones bajo incertidumbre
4.8.2 Cultura
de “derecho a parar”
Cualquier operador o mando debe poder detener empleo autónomo si detecta riesgo
grave.
4.8.3 Equipos
de verificación cruzada
En misiones sensibles, se requiere doble validación humana.
4.8.4 Revisión
post-acción obligatoria
Cada empleo autónomo letal debe revisarse:
a) qué pasó
b) por qué pasó
c) si se ajustó a ROE
d) qué se corrige
4.9
Escenarios de prohibición absoluta o casi absoluta
4.9.1 Entornos
urbanos con alta densidad civil
a) riesgo de confusión
b) riesgo de daño colateral
c) alto impacto político
4.9.2
Operaciones de coerción estratégica
Cuando el empleo puede escalar el conflicto.
4.9.3 Ambientes
de identificación ambigua
Si el enemigo se mezcla deliberadamente con población o fuerzas aliadas.
4.9.4
Situaciones con alta probabilidad de spoofing o datos contaminados
No se autoriza letalidad autónoma si no hay confianza en la percepción.
4.10
Síntesis: ROE para autonomía = disciplina moral en tiempo de máquina
El combate
algorítmico empuja hacia la velocidad.
Pero las ROE existen para impedir que la velocidad se convierta en barbarie o
accidente irreversible.
El principio
final podría formularse así:
La máquina
puede acelerar la acción,
pero nunca debe acelerar la irresponsabilidad.
Y por eso, en
doctrina moderna, la autonomía letal solo es admisible si:
- hay control humano significativo
- hay trazabilidad total
- hay distinción verificable
- hay proporcionalidad definida
- hay abortabilidad garantizada
- y existe cultura de límites
5. La
logística en la era de la guerra autónoma
Si la táctica
decide batallas, la logística decide guerras. Esa frase no es un lugar común:
es una ley estructural. Puedes tener drones, IA, munición de precisión y un
sistema de mando brillante… pero si no puedes sostener el ritmo, si tu
combustible no llega, si tu munición se agota, si tus repuestos no aparecen, el
ejército se convierte en una fuerza inmóvil, predecible y derrotable.
Y aquí entra el
giro moderno: la autonomía promete transformar la logística en algo más rápido,
más eficiente y menos expuesto. Vehículos autónomos de suministro, drones de
reabastecimiento, gestión predictiva de inventarios con IA, rutas dinámicas en
tiempo real. Pero esa promesa viene con una pregunta que es doctrinalmente
crítica:
¿La autonomía
hace la logística más robusta… o más vulnerable?
La respuesta no
es binaria. Depende de cómo se diseñe. Porque la autonomía puede reducir
vulnerabilidades físicas, pero abre vulnerabilidades sistémicas: ciberataque,
interferencia, spoofing, dependencia de datos y colapso por degradación.
Esta parte
rediseña la cadena logística para que no sea “más moderna”, sino más resiliente
bajo ataque.
5.1 La nueva
realidad: la logística ya no está detrás, está dentro del combate
En la guerra
clásica, existía una separación relativa entre frente y retaguardia. Hoy, con
drones, ISR persistente y ataques de precisión baratos, esa separación se
rompe.
a) El convoy ya
es objetivo
No hay “movimiento administrativo”. Todo movimiento es táctico.
b) Los
depósitos ya son blancos prioritarios
La concentración logística se convierte en un imán para munición merodeadora.
c) La firma
logística delata el sistema
Tráfico, rutas, patrones de reabastecimiento: todo se observa.
Conclusión: la
logística se convierte en un campo de batalla continuo.
5.2 Qué
aporta la autonomía: eficiencia, dispersión y persistencia
La autonomía
bien empleada puede ser una ventaja enorme.
a) Reducción de
exposición humana
Menos conductores, menos convoyes tripulados, menos bajas.
b) Dispersión y
micro-logística
En lugar de grandes convoyes, puedes usar:
- múltiples vehículos pequeños
- rutas variadas
- entregas frecuentes de baja firma
c) Operación
24/7
La autonomía no necesita descanso. Mantiene flujo constante.
d) Optimización
dinámica
IA puede:
- predecir consumo
- anticipar fallos
- reasignar rutas
- reducir desperdicio
Esto no es
lujo: es supervivencia operativa.
Lo que se
automatiza, se puede degradar por medios no cinéticos.
a) Ciberataque
Si el enemigo entra en tu sistema logístico:
- altera inventarios
- desordena prioridades
- crea entregas fantasma
- bloquea rutas
- induce colapso sin disparar
b) Guerra
electrónica
Jamming y spoofing pueden:
- desviar vehículos
- perder navegación
- romper enlaces
- inutilizar drones de entrega
c) Ataque al
dato
Si la IA predice sobre datos falsos, optimiza hacia el desastre.
d) Ataque a la
dependencia
Si el sistema depende de una única red o satélite, basta un golpe para
apagarlo.
La autonomía
logística es potente, pero su talón de Aquiles es la conectividad y la
integridad del dato.
5.4 Rediseño
doctrinal: de “cadena logística” a “malla logística”
La logística
clásica es una cadena: lineal, jerárquica, con nodos grandes.
En guerra
autónoma debe convertirse en una malla: distribuida, redundante,
reconfigurable.
a) Cadena
- pocos nodos grandes
- rutas predecibles
- eficiencia alta
- fragilidad alta
b) Malla
- muchos nodos pequeños
- rutas múltiples
- eficiencia algo menor
- resiliencia mucho mayor
Doctrina
emergente: sacrificar algo de eficiencia para ganar supervivencia.
5.5
Principios de diseño para una logística resiliente
Aquí bajamos a
principios operativos claros.
5.5.1
Dispersión logística sistemática
a) depósitos pequeños
b) stocks distribuidos
c) ocultación multispectral
d) movilidad de almacenes
La logística
deja de ser “almacenar” y pasa a ser “dispersar y sobrevivir”.
5.5.2
Redundancia de rutas y medios
a) rutas alternativas
b) medios alternativos (tierra, aire, mar)
c) capacidad de cambiar de plan en minutos
5.5.3 Operación
degradada prevista
El sistema debe poder funcionar con:
a) GPS
degradado
b) enlaces intermitentes
c) mando parcial
d) inventarios incompletos
Si no puedes
operar degradado, estás diseñado para perder.
5.5.4 Gestión
de firma
No solo ocultación, también patrón.
a) variar
horarios
b) variar rutas
c) evitar rutinas
d) usar señuelos logísticos
El enemigo
aprende patrones: hay que negarle patrones.
5.6
Autonomía: ¿más vulnerable o robusta? depende del nivel de control
La autonomía
puede ser robusta si se diseña con “seguridad por defecto”.
a) Autonomía
sin seguridad
Es una invitación al sabotaje.
b) Autonomía
con seguridad estructural
Puede ser superior a la logística tradicional, porque permite dispersión y
velocidad.
Aquí entran
medidas clave:
5.6.1
Navegación resiliente
a) navegación inercial
b) mapas pre-cargados
c) referencias terrestres
d) capacidad de retorno seguro
5.6.2
Comunicación resistente
a) enlaces redundantes
b) modos silenciosos
c) comunicaciones de baja probabilidad de interceptación
5.6.3
Ciberseguridad de grado militar
a) sistemas aislados por segmentos
b) autenticación fuerte
c) cifrado end-to-end
d) detección de intrusión
5.6.4 Principio
“si dudas, detente”
Si el sistema detecta anomalía:
a) no continúa
ciegamente
b) entra en modo seguro
c) solicita intervención humana
5.7 Drones
de reabastecimiento: ventaja táctica y riesgo de saturación
Los drones
logísticos pueden cambiar el combate, pero también pueden ser neutralizados.
a) Ventajas
- reabastecimiento rápido
- entrega a unidades aisladas
- reducción de convoyes
b) Riesgos
- vulnerables a EW
- vulnerables a interceptación
- vulnerables a saturación enemiga
c) Doctrina
recomendada
Los drones logísticos no sustituyen la logística tradicional: la complementan
para ventanas críticas.
5.8 La
logística como objetivo prioritario: defensa activa y pasiva
Si la logística
es el centro de gravedad, hay que defenderla.
a) Defensa
pasiva
- camuflaje
- dispersión
- ocultación
- movilidad
b) Defensa
activa
- C-UAS alrededor de nodos
- EW defensiva
- patrullas antidrón
- interceptación selectiva
c) Defensa
cognitiva
- detectar patrones de ataque enemigo
- anticipar campañas de interdicción
- mover stocks antes del golpe
La defensa
logística no es “proteger almacenes”: es maniobrar stocks.
5.9 El nuevo
rol del oficial logístico: de gestor a arquitecto de resiliencia
En guerra
autónoma, el oficial logístico deja de ser solo administrador. Se convierte en
diseñador de sistema.
a) Debe
entender
- ciberseguridad
- guerra electrónica
- firma electromagnética
- redundancia de redes
b) Debe
coordinar con operaciones
La logística ya no apoya: co-determina la maniobra.
c) Debe pensar
como enemigo
Dónde atacaría, qué nodo destruiría, qué patrón explotaría.
5.10
Síntesis: la logística autónoma gana la guerra si sobrevive al ataque invisible
La autonomía
puede hacer la logística:
- más rápida
- más distribuida
- menos expuesta
- más eficiente
Pero también
puede hacerla:
- más hackeable
- más dependiente de datos
- más vulnerable a EW
- más frágil si no opera degradado
La doctrina
correcta no es “automatizar por automatizar”. Es construir una logística que
sea un organismo resistente:
malla
distribuida, redundante, móvil, capaz de operar degradada, y diseñada para que
el enemigo no pueda colapsarla con un golpe único.
6. Formación
del combatiente del futuro: del fusilero al “operador de sistemas”
La revolución
de drones e IA no solo cambia armas y doctrinas: cambia al combatiente. Cambia
lo que significa “estar en primera línea”. Porque en el campo de batalla
actual, el soldado ya no es únicamente un portador de fusil. Es un nodo. Un
punto de decisión dentro de una red de sensores, algoritmos y actuadores. Y si
ese nodo no sabe interpretar, priorizar y actuar con criterio bajo saturación,
la red se convierte en ruido y la fuerza se convierte en fragilidad.
Este cambio es
profundo. No es un “curso de drones”. Es una transformación del perfil humano
del combatiente: su mente, su entrenamiento, su cultura táctica, su relación
con la tecnología y su capacidad de sostener el juicio cuando el sistema empuja
a delegar.
El combatiente
del futuro no será un técnico frío ni un guerrero analógico. Será una síntesis:
un operador de sistemas integrados con alma castrense.
6.1 El
soldado como nodo: de unidad individual a elemento de red
Antes, la
unidad táctica se definía por su potencia orgánica: armas, movilidad, cohesión.
Ahora, una
unidad se define por su conectividad y su capacidad de producir efectos.
a) El soldado
recibe datos
De drones, sensores, inteligencia, IA.
b) El soldado
produce datos
Marca objetivos, reporta, alimenta el sistema.
c) El soldado
ejecuta efectos
Puede lanzar drones, activar EW, guiar fuegos, operar municiones merodeadoras.
El soldado deja
de ser solo fuerza física: se convierte en interfaz entre mundo real y sistema
digital.
6.2
Competencias esenciales del operador de sistemas integrados
El perfil de
competencias debe rediseñarse en dos grandes bloques: técnico-cognitivo y
castrense-moral. Ambos son inseparables.
6.2.1
Competencias técnicas (operación de sistemas)
6.2.1.1 Gestión
de drones y sensores
a) pilotaje básico y avanzado
b) operación en condiciones degradadas
c) control de enjambres simples
d) empleo táctico: reconocimiento, ataque, señuelo
6.2.1.2
Interpretación de datos y fusión de información
a) lectura de feeds ISR
b) identificación de patrones
c) detección de anomalías
d) comprensión de incertidumbre (no confundir “probable” con “cierto”)
6.2.1.3
Conocimiento práctico de guerra electrónica
a) qué es jamming
b) qué es spoofing
c) disciplina de emisiones (EMCON)
d) procedimientos cuando se pierde enlace
6.2.1.4
Ciberhigiene operativa
a) protección de terminales
b) autenticación
c) gestión de claves
d) conducta ante intrusión o sospecha
6.2.1.5
Operación de sistemas de fuego conectados
a) designación de blancos
b) coordinación de fuegos
c) integración con artillería y apoyo aéreo
d) control de daños colaterales
6.2.1.6
Mantenimiento básico y resiliencia material
a) reparación de emergencia
b) cambio rápido de módulos
c) gestión de baterías y energía
d) redundancia y repuestos críticos
El combatiente
del futuro no puede ser dependiente de “un especialista”. Debe ser funcional en
primera línea con autonomía técnica básica.
6.3
Competencias castrenses tradicionales (más necesarias que nunca)
Aquí hay un
error común: creer que la tecnología reemplaza virtudes militares. Ocurre lo
contrario. La saturación tecnológica exige más carácter, no menos.
6.3.1
Liderazgo bajo presión
a) tomar
decisiones con información incompleta
b) sostener al equipo emocionalmente
c) mantener disciplina sin rigidez ciega
6.3.2
Iniciativa táctica
a) actuar
cuando el plan se rompe
b) improvisar con criterio
c) operar sin enlace superior
6.3.3
Resiliencia psicológica
a) tolerar
saturación y vigilancia constante
b) soportar fatiga cognitiva
c) resistir la ansiedad de la transparencia total
6.3.4 Ética
operativa
a) distinguir
objetivos legítimos
b) respetar ROE incluso bajo presión
c) no delegar moralidad en la máquina
6.3.5
Cohesión y confianza
En guerra de
redes, la cohesión sigue siendo el pegamento humano. Sin ella, el sistema se
fragmenta.
6.4 La nueva
carga mental: fatiga cognitiva y saturación de decisión
La guerra
algorítmica produce un fenómeno nuevo: la fatiga de decisión acelerada.
a) El soldado
recibe demasiada información
Más datos no significa más claridad.
b) La presión
por actuar rápido aumenta
Porque el enemigo también acelera.
c) La
incertidumbre se vuelve permanente
No hay descanso mental: siempre hay amenaza.
Esto exige
entrenar:
6.4.1
Priorización bajo saturación
Qué mirar, qué ignorar, qué confirmar.
6.4.2 Gestión
del estrés cognitivo
Respiración, foco, protocolos de calma operativa.
6.4.3
Disciplina del silencio
Saber operar sin emitir, sin hablar, sin depender del sistema.
6.5
Entrenamiento doctrinal: formar criterio, no solo habilidades
El gran riesgo
de la formación técnica es crear operadores que saben manejar sistemas, pero no
saben pensar la guerra.
Por eso, el
entrenamiento debe incluir doctrina.
6.5.1
Pensamiento táctico en entorno transparente
a) moverse sin
ser visto
b) ocultación multispectral
c) engaño algorítmico básico
6.5.2
Operación degradada
a) combate sin
GPS
b) combate sin enlace
c) combate con sensores cegados
a) detección
b) reacción inmediata
c) coordinación de defensa activa/pasiva
6.5.4
Cultura de aprendizaje rápido
a) after action
reviews constantes
b) corrección sin castigo
c) adaptación semanal, no anual
La doctrina en
este entorno se escribe casi en tiempo real.
6.6 El
equilibrio humano–máquina: evitar dos extremos letales
Hay dos errores
simétricos.
a) Extremo 1:
tecnofetichismo
Creer que la IA “sabe”. Resultado: delegación ciega.
b) Extremo 2:
rechazo analógico
Creer que la tecnología debilita. Resultado: inferioridad.
El combatiente
del futuro debe operar en equilibrio:
usar la máquina
como acelerador,
pero sostener el juicio como límite.
6.7 Perfil
de mentalidad del operador del futuro
Podemos definir
una mentalidad doctrinal:
6.7.1 Humildad
técnica
Saber que el sistema puede fallar.
6.7.2
Curiosidad táctica
Aprender continuamente, detectar patrones.
6.7.3
Disciplina de procedimiento
En entorno saturado, el error pequeño mata.
6.7.4 Autonomía
responsable
Capacidad de actuar sin órdenes, pero dentro de ROE.
6.7.5 Coraje
moral
Decidir “no” cuando el sistema empuja a disparar.
Este punto es
crucial: la guerra autónoma exige más conciencia ética, no menos.
Para hacerlo
aplicable, proponemos una escalera:
6.8.1 Nivel
básico
a) operación de dron individual
b) navegación degradada
c) identificación de amenazas C-UAS
6.8.2 Nivel
intermedio
a) integración con fuego indirecto
b) empleo táctico de enjambres simples
c) procedimientos EW básicos
6.8.3 Nivel
avanzado
a) coordinación multi-dominio
b) gestión de datos bajo engaño
c) liderazgo de célula de sistemas
6.8.4 Nivel
experto
a) mando de red táctica
b) toma de decisión con IA asistente
c) gestión de escalada y ROE complejas
6.9 El nuevo
ideal de combatiente: tecnológicamente capaz, moralmente sólido
La tecnología
cambia herramientas.
Pero el núcleo del soldado no puede perderse.
Porque si el
combatiente se convierte en un operador técnico sin virtud, el ejército gana
eficiencia… y pierde alma. Y un ejército sin alma es peligroso para el enemigo,
pero también para sí mismo.
El combatiente
del futuro debe ser:
- competente en sistemas
- disciplinado en procedimientos
- fuerte psicológicamente
- lúcido moralmente
- capaz de liderar bajo presión
- capaz de operar degradado
En la guerra de
drones e IA, la plataforma importa.
El algoritmo importa.
La red importa.
Pero el factor
decisivo sigue siendo quién sostiene el juicio cuando todo acelera.
El operador de
sistemas integrados no es un sustituto del soldado: es su evolución. Y esa
evolución debe preservar lo esencial:
liderazgo,
iniciativa, resiliencia y ética.
Porque la
máquina puede ejecutar.
Pero solo el ser humano puede responder por lo que ejecuta.
CONCLUSIÓN
La guerra
siempre ha sido transformación, pero hay momentos en los que esa transformación
no es gradual: es una ruptura. Y la irrupción masiva de drones y sistemas de
inteligencia artificial está produciendo precisamente eso: un cambio de era. No
porque aparezca un arma nueva, sino porque cambia la naturaleza del combate
como sistema. El campo de batalla se vuelve transparente, saturado, acelerado
y, al mismo tiempo, profundamente vulnerable a la manipulación de datos, a la
guerra electrónica y al error amplificado por la velocidad.
En este nuevo
escenario, el enemigo ya no necesita superioridad clásica para imponerse. Le
basta con saturar, degradar y desorganizar. Le basta con atacar la coherencia
del sistema: tu percepción, tu mando, tu logística y tu capacidad de sostener
el ritmo. Por eso la doctrina tradicional no desaparece, pero sí se ve obligada
a reformularse. La concentración de fuerzas se convierte en concentración de
efectos distribuidos. La defensa en profundidad deja de ser solo escalonamiento
físico y pasa a ser resiliencia sistémica. El engaño se traslada del terreno
visible al espectro electromagnético y al dominio algorítmico. Y la
retaguardia, sencillamente, deja de existir como espacio seguro: toda
profundidad es frente.
El ciclo OODA,
corazón de la ventaja operativa, entra en una mutación decisiva. La velocidad
ya no es humana: es algorítmica. Y ahí nace la paradoja más peligrosa de esta
era: la IA puede darte superioridad, pero también puede precipitarte al
desastre si acelera decisiones tomadas sobre datos contaminados o bajo
saturación. Por eso el objetivo doctrinal no es solo “cerrar el OODA más
rápido”, sino cerrarlo más rápido y más robusto. Porque el enemigo ya no
combate solo con fuego: combate contra tu capacidad de decidir con lucidez.
En este marco
aparece una nueva trinidad del poder militar: algoritmos, datos y autonomía.
Los algoritmos se convierten en el elemento cognitivo del combate, los datos
pasan a ser terreno estratégico y la autonomía se transforma en el músculo que
ejecuta sin fricción humana. Quien domina este triángulo domina el ritmo. Pero
también queda expuesto a su propia fragilidad: dependencia de conectividad,
vulnerabilidad cibernética, manipulación de percepción y riesgo de pérdida de
control. La guerra moderna premia la tecnología, sí, pero castiga con dureza la
dependencia tecnológica sin soberanía, sin redundancia y sin capacidad de
operar degradado.
El punto más
crítico, sin embargo, es moral y político: la delegación de letalidad. Cuando
una máquina participa en la decisión de atacar, las Reglas de Enfrentamiento
dejan de ser un marco administrativo y se convierten en el dique que contiene
la escalada y protege la legitimidad. En un mundo de autonomía, la
responsabilidad no puede evaporarse: debe ser trazable, auditada y humana.
Distinción, proporcionalidad y control significativo humano no son conceptos
abstractos: son condiciones de supervivencia estratégica. Porque la victoria
táctica obtenida por automatismo puede convertirse en derrota política por
pérdida de legitimidad.
Y en el fondo,
como siempre, la guerra se sostiene por lo que permite que todo lo demás
exista: la logística. La autonomía puede hacerla más rápida, dispersa y
eficiente, pero también puede volverla hackeable y dependiente de datos. El
rediseño correcto no consiste en automatizar la cadena, sino en convertirla en
malla: distribuida, redundante, móvil y capaz de sobrevivir bajo ataque
invisible. La logística del futuro no será la más eficiente: será la más
resiliente.
Finalmente, el
cambio más profundo no está en las máquinas, sino en el combatiente. El soldado
del futuro no será un fusilero clásico ni un técnico puro: será un operador de
sistemas integrados con mentalidad castrense. Un nodo humano dentro de una red
de sensores y actuadores, capaz de interpretar datos bajo presión, operar en
degradación, resistir la saturación cognitiva y, sobre todo, sostener el juicio
moral cuando el sistema empuja a delegar. Porque en la guerra acelerada, el
error ya no es solo un fallo táctico: puede ser un acontecimiento irreversible.
Si lo
condensamos en una sola idea doctrinal, sería esta:
La revolución
de drones e IA no cambia solo el “cómo se combate”; cambia lo que significa
mandar, sostener y limitar la guerra.
Y por eso el
desafío central del siglo XXI no será únicamente tecnológico. Será doctrinal,
organizativo y humano: construir fuerzas capaces de operar en tiempo
algorítmico sin perder el control, la responsabilidad y la legitimidad.
Puedes seguir explorando mi archivo completo de artículos
en:
Biblioteca de conocimiento https://josr957.github.io/Conocimiento/

Comentarios
Publicar un comentario