LA
INTELIGENCIA ARTIFICIAL EN LA ESTRATEGIA MILITAR
Introducción
La inteligencia
artificial ha dejado de ser un multiplicador técnico para convertirse en un factor
estructurante del poder militar. No introduce simplemente nuevas armas o
sistemas más eficientes; altera la relación entre velocidad, decisión,
control humano y responsabilidad política. En este sentido, la IA no se
suma a la historia militar como una innovación más, sino como el detonante de
una nueva Revolución en los Asuntos Militares, comparable en profundidad
—aunque distinta en naturaleza— a la nuclear o al stealth.
A diferencia de
revoluciones anteriores, la IA no se concentra en un único dominio. Penetra
todos: tierra, mar, aire, espacio, ciberespacio y, de forma creciente, el dominio
cognitivo. Automatiza el análisis, acelera la decisión, aprende del entorno
y, en determinados contextos, desacopla la acción del juicio humano directo.
De ahí surge la figura central de este nuevo paradigma: el “centauro
digital”, la integración humano–máquina como unidad operativa, donde la
frontera entre apoyo a la decisión y delegación de la decisión se vuelve
difusa.
Este
desplazamiento tiene consecuencias estratégicas profundas. Por un lado, promete
ventajas operativas decisivas: mayor velocidad, precisión, anticipación y
coordinación. Por otro, introduce riesgos sistémicos inéditos: escaladas
no intencionadas, pérdida de control político sobre el uso de la fuerza,
erosión de la responsabilidad jurídica y una guerra que puede desarrollarse a
ritmos incompatibles con la deliberación humana. La cuestión ya no es solo qué
puede hacer la IA en el campo de batalla, sino qué tipo de guerra
produce.
Además, la IA
militar no se juega únicamente en plataformas autónomas o sistemas letales. Se
libra en el terreno de los datos, en la capacidad de entrenar algoritmos
con información relevante; en la guerra cognitiva, donde la percepción
puede ser tan decisiva como el fuego; y en la gobernanza internacional,
donde las normas van siempre por detrás de la ventaja estratégica. En este
contexto, la ausencia de tratados vinculantes no es un vacío accidental, sino
el reflejo de una competencia abierta por definir las reglas… o por operar sin
ellas.
Este artículo
aborda la inteligencia artificial en la estrategia militar desde una
perspectiva estructural y no tecnocrática, articulando el análisis en seis
partes interrelacionadas:
- La IA como catalizador de una nueva
Revolución en los Asuntos Militares, y el concepto del “centauro digital” como núcleo
operativo del nuevo paradigma.
- La autonomía letal y el dilema del
mando y control,
analizando cómo la delegación algorítmica tensiona la cadena de
responsabilidad militar y jurídica.
- La dominancia de los datos como
base del poder militar,
explorando su dimensión geopolítica y su papel como recurso estratégico
acumulativo.
- La guerra cognitiva, donde la IA actúa sobre
percepciones, narrativas y cohesión social, debilitando la noción misma de
realidad compartida.
- La paradoja de la velocidad, evaluando cómo la aceleración
extrema del ciclo decisional puede socavar la estabilidad estratégica.
- La ética y la gobernanza de la IA
militar, no como
ideal normativo, sino como equilibrio inestable entre poder, seguridad y
control político.
1.
Revolución en los Asuntos Militares (RMA) y el “centauro digital”
Cuando la
ventaja ya no está en el arma, sino en la interacción
Las
Revoluciones en los Asuntos Militares no se definen por la aparición de un arma
concreta, sino por un cambio sistémico en la forma de concebir, organizar y
ejercer la fuerza. La pólvora, la mecanización, el arma nuclear o el stealth
transformaron el campo de batalla porque alteraron doctrinas, estructuras de
mando y equilibrios estratégicos. La inteligencia artificial pertenece a esta
misma categoría, pero introduce una novedad decisiva: no sustituye al
combatiente, lo reconfigura.
En este nuevo
paradigma emerge la figura del “centauro digital”: la unidad operativa
formada por humano e IA, donde la máquina no actúa como simple herramienta
pasiva, sino como socio cognitivo. La IA observa más rápido,
correlaciona más variables, propone cursos de acción y anticipa escenarios. El
humano valida, contextualiza y asume —al menos formalmente— la responsabilidad
final. El poder no reside en uno u otro, sino en la calidad de la
interacción.
De la
superioridad tecnológica a la superioridad decisional
A diferencia de
revoluciones anteriores, la IA no garantiza una ventaja decisiva por su mera
posesión. Su impacto estratégico depende de cómo se integra en el ciclo
decisional. Estados con menos recursos pueden acceder a capacidades
avanzadas mediante software, datos abiertos, sensores comerciales o plataformas
autónomas relativamente baratas. Esto introduce un efecto paradójico: la IA democratiza
capacidades sofisticadas al tiempo que penaliza a quienes no logran
integrarlas doctrinalmente.
El resultado es
un desplazamiento de la superioridad clásica —numérica o tecnológica— hacia una
superioridad decisional: quien observa antes, comprende mejor y actúa
con mayor coherencia sistémica impone el ritmo del conflicto. En este sentido,
la IA no “gana guerras”, pero define quién juega en ventaja desde el primer
segundo.
Asimetría,
enjambres y actores no estatales
La lógica del
centauro digital favorece estrategias asimétricas. Sistemas autónomos de
enjambre, coordinación algorítmica de drones, análisis predictivo de
movimientos enemigos o generación automatizada de desinformación permiten a
actores no estatales o Estados medianos erosionar ventajas tradicionales
de potencias mayores.
Aquí la RMA
impulsada por la IA no concentra poder de forma exclusiva; lo redistribuye
de manera inestable. La barrera de entrada baja, pero la barrera de
excelencia sube: no basta con tener IA, hay que entrenarla, alimentarla con
datos relevantes y acoplarla a una doctrina coherente. El error estratégico
no es quedarse atrás tecnológicamente, sino integrar mal.
El centauro
como problema, no como solución
El centauro
digital no es una síntesis armónica, sino una tensión permanente. A
mayor automatización, mayor velocidad; a mayor velocidad, menor margen para la
reflexión humana. El riesgo no es que la IA sustituya al comandante, sino que condicione
su decisión de forma invisible, desplazando el juicio humano hacia una
validación casi automática de recomendaciones algorítmicas.
Así, la RMA de
la IA no plantea solo un problema de eficacia, sino de control estratégico.
La ventaja decisiva puede surgir… o disiparse, si la interacción humano–máquina
se convierte en dependencia acrítica.
La inteligencia
artificial inaugura una Revolución en los Asuntos Militares porque transforma la
forma de decidir, no solo la forma de combatir. El “centauro digital” se
convierte en la unidad estratégica básica, pero su éxito no está garantizado:
depende de doctrina, cultura organizativa y comprensión de los límites humanos
y algorítmicos.
Con esta base,
el siguiente paso es inevitable: analizar qué ocurre cuando esa interacción se
desplaza del apoyo a la decisión hacia la delegación real de funciones
críticas, especialmente en sistemas letales y en la cadena de mando.
2. Autonomía
letal y el dilema del mando y control (C2)
Delegar no
es lo mismo que decidir
El debate sobre
los Sistemas de Armas Autónomos Letales (LAWS) suele concentrarse en una
pregunta moral directa —¿puede una máquina decidir quitar una vida?—, pero esa
formulación es incompleta. El problema estratégico real no reside solo en el
acto final, sino en la delegación progresiva de funciones operativas
que, acumuladas, reconfiguran la cadena de mando y control (C2). Cuando
la IA prioriza objetivos, optimiza trayectorias, coordina enjambres o
replanifica misiones en tiempo real, la decisión humana ya no desaparece: se
diluye.
Del apoyo a
la decisión a la decisión condicionada
En su fase
inicial, la IA entra en el C2 como sistema de apoyo: filtra información,
reduce ruido, propone cursos de acción. El salto cualitativo ocurre cuando la
complejidad y la velocidad del entorno obligan al comandante a confiar
sistemáticamente en la recomendación algorítmica. No hay una “decisión
autónoma” explícita, pero sí un desacoplamiento decisional: el humano
conserva la autoridad formal mientras el algoritmo estructura el espacio de lo
decidible.
Este
desplazamiento es crítico. A mayor velocidad —misiles hipersónicos, defensa
antiaérea automatizada, guerra cibernética—, menor margen para la deliberación
humana significativa. El riesgo no es la rebelión de la máquina, sino la automatización
del juicio bajo presión temporal.
Responsabilidad
(accountability) en un sistema distribuido
La cadena de
responsabilidad clásica presupone claridad: un decisor humano, una orden, una
acción. Los sistemas que aprenden y se adaptan rompen esa linealidad. ¿Quién
responde cuando:
- el algoritmo prioriza un objetivo
con datos incompletos,
- el sistema aprende de un entorno
sesgado,
- o la interacción entre múltiples IA
produce un resultado no previsto?
La
responsabilidad se fragmenta entre diseñadores, entrenadores de datos,
operadores, comandantes y decisores políticos. Esta difusión de la culpa
no es un vacío legal accidental, sino una consecuencia estructural de sistemas
complejos adaptativos. El Derecho Internacional Humanitario fue diseñado para
armas previsibles; la IA introduce comportamientos emergentes que
desafían esa previsibilidad.
Muchos marcos
normativos apelan al concepto de “control humano significativo”. La dificultad
no es definirlo en abstracto, sino operacionalizarlo en escenarios donde
milisegundos importan. Si el control humano implica comprender, anticipar y
poder detener la acción, entonces en ciertos dominios de alta velocidad ese
control se vuelve simbólico.
Aquí emerge una
paradoja: cuanto más eficaz es el sistema autónomo, más tentador resulta retirar
al humano del bucle para no convertirse en cuello de botella. La eficiencia
militar empuja en una dirección; la responsabilidad política y ética, en la
contraria.
C2 en
conflicto: resiliencia vs. gobernabilidad
Desde una
perspectiva estratégica, delegar en IA puede aumentar la resiliencia operativa
frente a saturación, interferencias o ataques coordinados. Pero también reduce
la gobernabilidad del uso de la fuerza. Un sistema que reacciona más rápido
de lo que el liderazgo político puede supervisar incrementa el riesgo de
escaladas no intencionadas, especialmente en crisis ambiguas.
El dilema no es
tecnológico, sino político-militar: ¿hasta qué punto estamos dispuestos a
sacrificar control consciente por ventaja operativa? Y, más aún, ¿quién asume
el coste cuando esa ventaja produce un error sistémico?
La autonomía
letal no introduce solo un problema ético puntual, sino una transformación
profunda del mando y control. La IA desplaza la decisión desde el acto
final hacia la arquitectura del sistema. La pregunta ya no es si una máquina
puede matar, sino cómo se gobierna un sistema donde la decisión emerge de
interacciones humano–algorítmicas aceleradas.
Con esta
tensión en mente, el siguiente paso es analizar el combustible que hace posible
esa autonomía: los datos. Porque en la guerra de la IA, quien domina los
datos domina el campo de batalla antes de que empiece.
3. La
carrera por la dominancia de los datos
El
“petróleo” del siglo XXI… y el terreno donde se gana la guerra antes de
combatir
En la
estrategia militar basada en inteligencia artificial, los datos no son un
recurso auxiliar: son el fundamento mismo del poder. La analogía con el
petróleo resulta útil solo si se entiende en profundidad. No basta con poseer
datos; hay que extraerlos, refinarlos, protegerlos y, sobre todo, negar su
acceso al adversario. En este sentido, la dominancia de los datos es una
forma de ventaja estructural acumulativa: quien empieza antes y mejor,
amplía la brecha con el tiempo.
Qué datos
importan realmente en la guerra de IA
No todos los
datos tienen el mismo valor militar. Los sistemas de IA más efectivos se
entrenan con combinaciones específicas de información:
- Datos ISR (Intelligence, Surveillance,
Reconnaissance): imágenes satelitales, radar, sensores terrestres,
marítimos y aéreos.
- Señales electrónicas y
electromagnéticas:
emisiones de radar, comunicaciones, firmas espectrales.
- Datos operativos y logísticos: movimientos de unidades, consumo,
mantenimiento, tiempos de respuesta.
- Datos humanos y cognitivos: comportamiento social, patrones
de comunicación, estados de ánimo colectivos.
La ventaja no
proviene solo del volumen, sino de la calidad contextual, la
actualización continua y la capacidad de fusionar fuentes heterogéneas en
tiempo casi real.
Datos como
poder estructural, no táctico
A diferencia de
un arma concreta, los datos no se “gastan” al usarlos. Al contrario:
cada operación, ejercicio o conflicto genera nuevos datos que realimentan el
sistema. Esto crea un círculo virtuoso —o vicioso— de aprendizaje continuo. Los
actores con mayor acceso a flujos constantes de información relevante entrenan
mejores modelos, que a su vez producen mejores decisiones y más datos útiles.
Esta lógica
favorece a quienes controlan:
- grandes redes de sensores,
- infraestructuras digitales
globales,
- y plataformas capaces de recolectar
datos civiles con valor militar indirecto.
Aquí la
frontera entre lo civil y lo militar se vuelve porosa.
Geopolítica
de los datos: dependencia y negación
La carrera por
los datos genera nuevas dependencias estratégicas. Estados que carecen de
infraestructura propia dependen de:
- proveedores externos de imágenes,
- plataformas comerciales de
análisis,
- o nubes de datos bajo
jurisdicciones ajenas.
Esto introduce
vulnerabilidades críticas. En un conflicto, negar el acceso a datos
—cortando flujos, degradando sensores, imponiendo restricciones legales o
técnicas— puede ser tan decisivo como destruir un sistema de armas. La negación
de datos se convierte así en una forma de coerción estratégica silenciosa.
Centros de
datos, cables y soberanía informacional
La dominancia
de los datos no es abstracta. Se materializa en:
- centros de datos físicos,
- cables de transmisión,
- jurisdicciones legales que
determinan quién puede acceder a qué información y en qué condiciones.
El control de
estos nodos confiere poder no solo para usar datos propios, sino para influir
sobre los datos ajenos. La soberanía informacional deja de ser un concepto
normativo y se transforma en capacidad operativa real.
El problema
de la ilusión algorítmica
Existe, además,
un riesgo estratégico interno: confundir cantidad de datos con comprensión.
Sistemas entrenados con datos incompletos, sesgados o irrelevantes pueden
producir una falsa sensación de omnisciencia. La IA no elimina la
incertidumbre; la redistribuye. Quien domina los datos, pero interpreta mal su
significado, puede tomar decisiones rápidas y erróneas a gran escala.
En la guerra de
la inteligencia artificial, los datos son el terreno donde se decide la ventaja
antes del primer disparo. No son solo un recurso: son una arquitectura
de poder acumulativa, difícil de revertir y profundamente desigual. Dominar los
datos implica dominar el ritmo, el marco y, en muchos casos, el resultado del
conflicto.
Pero esta
dominancia no se limita al plano físico o informacional. Se extiende al terreno
más frágil de todos: la mente humana y la percepción de la realidad.
Allí es donde la IA despliega su faceta más disruptiva.
4. Guerra
cognitiva y el debilitamiento de la realidad
Cuando el
campo de batalla es la percepción
La dimensión
más disruptiva de la inteligencia artificial en la estrategia militar no se
manifiesta necesariamente en plataformas armadas, sino en el dominio
cognitivo: el espacio donde se forman percepciones, creencias, emociones y
decisiones colectivas. Aquí, la IA no busca destruir fuerzas enemigas, sino erosionar
la capacidad de una sociedad para comprender, decidir y sostener un conflicto.
Es una guerra que no apunta al territorio ni al armamento, sino a la realidad
compartida.
De la
información a la manipulación sistémica
Las operaciones
de información siempre han existido, pero la IA introduce un salto cualitativo.
Permite pasar de campañas artesanales a operaciones industriales de
influencia, caracterizadas por:
- escala masiva,
- personalización extrema,
- adaptación en tiempo real,
- y persistencia algorítmica.
Herramientas
como deepfakes, bots sociales, generadores de texto y sistemas de
análisis de sentimientos permiten modular narrativas con una precisión
imposible hasta hace pocos años. No se trata solo de mentir mejor, sino de fragmentar
la percepción, inundar el espacio informativo y hacer indistinguible lo
verdadero de lo falso.
El objetivo
no es convencer, es desorientar
Un error común
es asumir que la guerra cognitiva busca persuadir. En realidad, su objetivo
principal es debilitar la confianza epistémica: que la población deje de
saber qué fuentes son fiables, qué hechos son comprobables y qué decisiones son
legítimas. Cuando la duda se generaliza, la cohesión social se erosiona y la
ventaja moral del adversario se diluye.
La IA es
especialmente eficaz aquí porque aprende qué mensajes polarizan, qué emociones
movilizan y qué grietas culturales amplificar. El sistema no necesita
comprender ideologías; le basta con optimizar reacciones.
Ventaja
estratégica sin confrontación directa
Desde el punto
de vista militar, la guerra cognitiva presenta ventajas claras:
- opera por debajo del umbral del
conflicto armado,
- dificulta la atribución,
- y puede producir efectos
estratégicos sin recurrir a la fuerza cinética.
Una sociedad
fragmentada, polarizada o desconfiada es menos capaz de sostener una
estrategia coherente, incluso con superioridad militar convencional. En
este sentido, la guerra cognitiva puede resultar más inmediata y disruptiva
que los robots de combate: no destruye capacidades, las inutiliza desde
dentro.
La legitimidad
es un multiplicador estratégico. La IA aplicada a la manipulación informativa
puede socavarla rápidamente: imágenes falsas de atrocidades, narrativas
amplificadas artificialmente, campañas que cuestionan la legalidad o moralidad
de una operación. Incluso cuando se desmienten, el daño ya está hecho. La
velocidad supera a la verificación.
Aquí aparece
una asimetría peligrosa: las democracias abiertas, con ecosistemas informativos
plurales, son más vulnerables a este tipo de ataques que sistemas
cerrados y controlados. La apertura informativa, que es una fortaleza política,
se convierte en una superficie de ataque cognitivo.
Realidad
debilitada, decisión debilitada
La consecuencia
estratégica final es clara: si la percepción de la realidad se fragmenta, la capacidad
de decisión colectiva se degrada. Gobiernos dudan, sociedades se polarizan,
aliados desconfían entre sí. La IA no impone una narrativa única; crea un
entorno donde ninguna narrativa logra consolidarse.
La guerra
cognitiva impulsada por IA redefine el conflicto moderno. No busca la victoria
militar directa, sino la parálisis decisional del adversario. En muchos
escenarios, esta dimensión no cinética resulta más rápida, barata y eficaz que
el empleo de fuerza armada.
Frente a este
panorama, surge una pregunta inquietante: si la IA acelera y amplifica tanto la
percepción como la decisión, ¿qué ocurre cuando esa aceleración se introduce en
sistemas de alerta temprana y respuesta automática?
5. La
paradoja de la velocidad: riesgo de escalada y estabilidad estratégica
Cuando
decidir más rápido puede significar decidir peor
Uno de los
argumentos más recurrentes a favor de la inteligencia artificial en el ámbito
militar es su capacidad para acelerar el ciclo OODA (Observar, Orientar,
Decidir, Actuar). En teoría, quien complete este ciclo más rápido desborda
al adversario, le impone el ritmo y gana la iniciativa estratégica. Sin
embargo, cuando la velocidad se aproxima a escalas temporales incompatibles
con la deliberación humana, aparece una paradoja profunda: la misma
rapidez que promete seguridad puede convertirse en fuente de inestabilidad
sistémica.
De la
ventaja temporal a la compresión del juicio
Los sistemas de
apoyo a la decisión basados en IA reducen drásticamente el tiempo entre
detección y respuesta. En dominios como la defensa antimisiles, la ciberdefensa
o la guerra electrónica, esta aceleración es operativamente atractiva, incluso
necesaria. El problema surge cuando la compresión temporal elimina el
espacio del juicio político-militar, sustituyéndolo por reacciones
automatizadas encadenadas.
En este
escenario, el decisor humano no desaparece, pero se ve empujado a ratificar
decisiones preconfiguradas, bajo presión extrema y con información ya
procesada algorítmicamente. La decisión sigue siendo “humana” en lo formal,
pero algorítmica en lo sustantivo.
Sistemas
auto-reactivos y escalada no intencionada
La introducción
de IA en sistemas de alerta temprana y respuesta defensiva crea bucles de
interacción potencialmente peligrosos. Si dos actores despliegan sistemas
capaces de:
- detectar amenazas en tiempo real,
- evaluar probabilidades de ataque,
- y activar contramedidas de forma
casi automática,
el margen para
la interpretación errónea, el falso positivo o la señal ambigua se amplifica.
La escalada ya no depende de una decisión consciente de atacar, sino de interacciones
entre sistemas que reaccionan a percepciones incompletas.
Este riesgo no
es nuevo —existía ya en la era nuclear—, pero la IA introduce un factor
diferencial: aprende y se adapta, lo que dificulta anticipar su
comportamiento exacto bajo estrés sistémico.
¿Disuasión
reforzada o guerra por error?
Existe un
argumento opuesto: la IA, al mejorar la detección y la precisión, podría reforzar
la disuasión al reducir la incertidumbre. Un adversario sabría que
cualquier ataque sería identificado y respondido con rapidez y exactitud,
desincentivando la agresión.
Ambas lecturas
son plausibles, y ahí reside el problema estratégico. La IA puede:
- estabilizar escenarios bien
definidos,
- pero desestabilizar crisis
ambiguas, donde la información es incompleta y la intención del
adversario no está clara.
La estabilidad
estratégica no depende solo de capacidades, sino de tiempo para interpretar
señales. La hiper-velocidad erosiona ese tiempo.
Mantener al
humano “en el bucle” se presenta a menudo como solución. Sin embargo, cuando
los sistemas operan a velocidades sobrehumanas, el humano se convierte en cuello
de botella o, peor aún, en punto de fallo simbólico: presente para
cumplir requisitos normativos, pero incapaz de influir realmente.
Esto plantea un
dilema sin solución técnica sencilla:
- retirar al humano aumenta el riesgo
político y ético,
- mantenerlo puede degradar la
eficacia operativa o inducir una falsa sensación de control.
La paradoja de
la velocidad revela uno de los riesgos más profundos de la IA militar: confundir
rapidez con control. La aceleración del ciclo decisional puede generar
ventajas tácticas, pero también incrementar la probabilidad de escaladas no
intencionadas, especialmente en sistemas interactivos y altamente
automatizados.
En este
contexto, la IA no elimina el riesgo estratégico; lo reconfigura. La
estabilidad futura no dependerá solo de mejores algoritmos, sino de límites
conscientes a la velocidad de la guerra.
Este dilema nos
conduce directamente al último eje del análisis:
la ética, la gobernanza y la ausencia de reglas vinculantes en un
entorno donde la ventaja estratégica se impone a la regulación.
Conclusión
La guerra no
será algorítmica… pero sí condicionada por algoritmos
La inteligencia
artificial no introduce una ruptura limpia con la historia militar, sino una reconfiguración
profunda de sus equilibrios internos. No reemplaza al ser humano como
sujeto de la guerra, pero desplaza el centro de gravedad de la decisión,
comprime el tiempo, redistribuye la responsabilidad y altera la relación entre
poder político y acción militar. En este sentido, la IA no es un arma más: es
un metasistema que atraviesa todos los dominios del conflicto.
A lo largo del
artículo hemos visto que su impacto no se mide solo en plataformas autónomas o
en letalidad delegada. Se manifiesta en la superioridad decisional, en
la dominancia estructural de los datos, en la capacidad de moldear percepciones
colectivas y en la aceleración del ciclo estratégico hasta límites que desafían
el control humano significativo. La figura del centauro digital resume
bien esta tensión: humano e IA ya no actúan de forma separada, pero tampoco
fusionados de manera estable. Su interacción es poderosa… y frágil.
La promesa de
eficiencia que ofrece la IA viene acompañada de riesgos sistémicos inéditos. La
autonomía operativa difumina la cadena de mando; la hiper-velocidad erosiona la
deliberación; la guerra cognitiva debilita la noción de realidad compartida; y
la carrera por los datos crea ventajas acumulativas difíciles de equilibrar. En
conjunto, estos factores incrementan el riesgo de escaladas no intencionadas,
no por mala fe, sino por interacción entre sistemas complejos que reaccionan
más rápido de lo que pueden comprenderse mutuamente.
Frente a este
panorama, la ética y la gobernanza no pueden plantearse como frenos morales
abstractos ni como prohibiciones totales poco realistas. La historia demuestra
que la regulación efectiva de la guerra surge cuando los actores perciben que la
ausencia de límites es más peligrosa que su aceptación. La IA militar pone
a prueba esa lección: obliga a pensar en límites a la velocidad, a la autonomía
y a la delegación decisional no como concesiones éticas, sino como condiciones
mínimas de estabilidad estratégica.
En última
instancia, la inteligencia artificial no decide si habrá guerra, ni quién la
gana. Pero condiciona cómo se decide, a qué ritmo y con qué margen de error.
Y ahí reside su verdadero poder. El desafío estratégico del siglo XXI no será
construir algoritmos cada vez más rápidos, sino preservar espacios de
control humano y político en un entorno que empuja sistemáticamente a
eliminarlos.
La pregunta
final no es si la IA hará la guerra más eficaz, sino si las sociedades que la
despliegan serán capaces de gobernar la violencia cuando la decisión se
vuelve más rápida que la reflexión. Esa, más que tecnológica, es una
cuestión profundamente política.

Comentarios
Publicar un comentario