La inteligencia artificial (IA) ha revolucionado la guerra, la seguridad y la diplomacia, redefiniendo los límites entre el progreso tecnológico y la moralidad. Este artículo explora su impacto en cinco ejes: funciones, dilemas éticos, realpolitik (política aplicada a la realidad), riesgos y beneficios de la recolección de datos.
Funciones de la IA militar: Más allá del combate
La IA militar no se limita a armas físicas: es un eje de espionaje, control y sabotaje. Mediante algoritmos, los estados interceptan comunicaciones, predicen movimientos enemigos y automatizan ataques. Herramientas como Stuxnet (virus que paralizó instalaciones nucleares iraníes) o drones autónomos como el turco Kargu-2 ilustran su alcance. La ciberguerra permite desestabilizar naciones sin disparar una bala, mientras la desinformación automatizada ayuda, junto al control de los medios, a socavar democracias.
Espionaje y guerra cibernética
Software como Pegasus (desarrollado por NSO Group) infecta dispositivos para extraer datos sin dejar rastro. Países como México o Arabia Saudita lo han usado contra periodistas y opositores. El análisis de big data es usado para identificar vulnerabilidades en redes energéticas o financieras, facilitando ataques precisos.
Automatización letal
Los drones autónomos pueden seleccionar y eliminar objetivos sin intervención humana, como ocurrió en Libia (2020). Esta tecnología reduce bajas propias, pero aumenta muertes civiles y deshumaniza la guerra (si es que en algún momento llegó a ser honrada y no capricho de gobernantes).
Super IA y futuros escenarios: La próxima frontera
La carrera entre EE.UU. y China por desarrollar una super IA (capaz de autoperfeccionarse sin intervención humana) podría redefinir la guerra. Imagina sistemas que repliquen tácticas militares en segundos, hackeen redes globales simultáneamente o desplieguen enjambres de drones con autonomía estratégica. Esto eliminaría la ventaja humana en la toma de decisiones, concentrando el poder en algoritmos inescrutables.
El impacto sería dual:
- Dominio tecnológico absoluto: Quien controle la super IA dictaría las reglas geopolíticas, desde cadenas de suministro hasta conflictos.
- Riesgo existencial: Un error de código o una manipulación hostil podría desencadenar guerras automatizadas a escala global, sin posibilidad de apagar el sistema.
Además, surgirían biohíbridos (IA integrada en sistemas biológicos), como virus dirigidos a etnias específicas o soldados cyborg. La línea entre el arma y el ser humano se desvanecería, planteando dilemas éticos sin precedentes.
Estados y tecnologías inmorales: ¿Criminales con bandera?
Algunos gobiernos emplean herramientas comparables a las de organizaciones criminales. Desde malware para torturar disidentes hasta manipulación masiva de elecciones, la seguridad nacional justifica violar éticas universales. Ejemplos como Cambridge Analytica o el spyware FinFisher revelan una alarmante normalización de la vigilancia abusiva.
Casos emblemáticos
Pegasus (NSO Group): Espió a Jamal Khashoggi antes de su asesinato. En 2022 un informe del Citizen Lab (Universidad de Toronto) reveló que al menos 65 políticos independentistas catalanes habrían sido atacados con Pegasus entre 2017 y 2020 vía móvil.
- Drones suicidas: En Nagorno-Karabaj, drones turcos y azeríes aniquilaron tanques armenios sin piedad. Estos sistemas priorizan eficacia sobre los derechos humanos.
El doble rasero geopolítico
Mientras Occidente critica a China por su sistema de crédito social, empresas europeas venden software de vigilancia a dictaduras. La realpolitik convierte a los estados en cómplices de tecnologías que luego condenan retóricamente.
¿Ética o supervivencia? El dilema geopolítico
¿Puede un Estado mantener relevancia global si rechaza herramientas inmorales? La historia sugiere que los poderes «éticos» pierden frente a rivales sin escrúpulos. Sin embargo, la falta de principios erosiona alianzas y legitimidad. Costa Rica, sin ejército desde 1948, ejerce influencia diplomática, pero su modelo es excepción, no regla.
El argumento realista
Si un país prohíbe armas autónomas, rivales como China o Rusia ganarán ventaja. La UE debate regulaciones de IA, pero su lentitud permite a China exportar cantidades ingentes de armas a África y otros países asiáticos.
Contrapeso ético
La diplomacia tecnológica de la UE muestra que estándares éticos pueden convertirse en poder blando. La clave está en equilibrar innovación y principios, invertir en defensa lo que se deja de hacer en ataque.
Lecciones históricas: ¿Realmente se puede vencer en un conflicto sin mancharse?
- Segunda Guerra Mundial: Los Aliados vencieron al Eje usando bombardeos masivos (Dresde, Hiroshima) y colaborando con Stalin, cuyo régimen era tan autoritario como el de Hitler. La bomba atómica aceleró el fin de la guerra, pero inauguró una era de terror nuclear, la cual dio lugar a una era de paz.
- Guerra Fría: La disuasión nuclear (MAD, Destrucción Mutua Asegurada) evitó una guerra directa, pero EE.UU. y la URSS financiaron dictaduras y guerrillas en países periféricos (Vietnam, Angola, Nicaragua). El «bien» occidental apoyó a Augusto Pinochet y a los muyahidines afganos.
- Vietnam y Afganistán: EE.UU. y la URSS, con armas superiores, perdieron ante enemigos menos tecnificados pero más adaptados al terreno y al apoyo local. La resistencia asimétrica demostró que la fuerza bruta no siempre triunfa, pero siempre deja víctimas.
Chatbots y datos: Beneficios vs. riesgos reputacionales
Plataformas como ChatGPT, DeepSeek, Gemini, etc. Recolectan datos masivos para entrenar algoritmos. Los estados usan esta información para vigilancia o predicción de comportamientos. Aunque útil, el riesgo de filtraciones o manipulación política amenaza la confianza pública. ¿Merece la pena el intercambio?
Ventajas estratégicas
Los datos permiten mejorar herramientas de seguridad, desde traducción automática hasta detección de amenazas. Gobiernos autoritarios, como China, los usan para monitorear disidencia en redes sociales. La información es poder, pero también un arma.
Escándalos y desconfianza
El caso Cambridge Analytica demostró cómo datos de Facebook manipularon elecciones. En 2023, Italia bloqueó ChatGPT por opacidad en su manejo de información. La reputación se erosiona rápido, y recuperarla cuesta más que los beneficios inmediatos.
Conclusiones: ¿Hacia un abismo o un nuevo contrato global?
• La IA militar es un arma de doble filo: Aumenta la eficiencia bélica, pero también la probabilidad de guerras accidentales o crímenes masivos.
• El rol de la sociedad civil: Presionar a gobiernos y empresas para auditar el uso de IA, como hicieron
empleados de Google contra el Proyecto Maven.
• ¿Puede vencer el «bien» al «mal» sin convertirse en ello?: La historia sugiere que no, pero la ética es un activo geopolítico a largo plazo, una buena ética facilita alianzas comerciales y diplomáticas.
En un mundo donde la IA redefine el poder, la única ventaja sostenible será aquella que combine superioridad técnica con principios humanos. La alternativa es un futuro donde las máquinas, y no los Estados, decidan los límites de la moralidad.
Autor: Rubén Valverde Romero




