La distracción de la ciencia ficción
La ética en inteligencia artificial suele presentarse ante la opinión pública envuelta en una narrativa casi cinematográfica. Se plantea como un problema del futuro o una cuestión ligada a escenarios extremos: sistemas que deben decidir a quién atropellar en un accidente inevitable, algoritmos que controlan el lanzamiento de armas autónomas o superinteligencias que, hipotéticamente, podrían anteponer la supervivencia del planeta a la del ser humano individual.
Sin embargo, esta forma de plantear el debate es, en sí misma, una distracción peligrosa. Al enfocar nuestra atención en escenarios apocalípticos o dilemas de filosofía teórica, ignoramos una realidad mucho más inmediata, tangible y corrosiva.
El verdadero dilema moral de la IA no se manifiesta en decisiones excepcionales de vida o muerte, sino en millones de decisiones pequeñas, silenciosas y acumulativas. Ocurre cada vez que un sistema optimiza objetivos definidos por humanos —principalmente eficiencia, rendimiento o beneficio económico— sin contar con la capacidad de evaluar las consecuencias sociales, humanas o ambientales que emergen de esa optimización ciega. No nos enfrentamos a una rebelión de las máquinas, sino a una burocracia algorítmica que prioriza la métrica sobre la moral.
“Los valores que aparecen como principios éticos no son neutrales: son los mismos
que terminan definiendo qué optimiza la IA y qué decide ignorar.”
Moralidad artificial: imitación sin comprensión
La ética como patrón estadístico
Para entender el vacío moral de la IA, primero hay que desmitificar su funcionamiento. Los modelos de lenguaje de gran escala (LLMs) no poseen valores, intenciones, conciencia ni remordimientos. Su comportamiento ético aparente es, estrictamente, el resultado de haber aprendido patrones lingüísticos a partir de volúmenes inabarcables de texto humano.
Como señalan Bender et al. (2021) en su obra fundamental On the Dangers of Stochastic Parrots, estos sistemas no comprenden el significado (semántica) ni las implicaciones morales de lo que generan; son «loros estocásticos» que unen secuencias de texto basándose en la probabilidad estadística, no en la veracidad o la bondad.
El peligro no reside en que la IA tenga una moral equivocada, sino en que no tiene ninguna. Lo que percibimos como «moralidad» en un LLM no es un conjunto de principios internos, sino una superficie reflectante —un espejo estadístico— de nuestras propias normas, contradicciones, sesgos históricos y discursos dominantes.
La ilusión de coherencia y la fragilidad del juicio
En muchos contextos, las respuestas de un modelo pueden parecer razonables, empáticas o incluso socialmente responsables. Sin embargo, esa coherencia es extremadamente frágil y depende de la mímica, no del razonamiento.
Estudios recientes, como Moral Judgments in Large Language Models (Schramowski et al., 2022) o los análisis cuantitativos sobre la toma de decisiones en LLMs, demuestran que los modelos no mantienen criterios éticos estables. La investigación revela que una ligera variación en el contexto narrativo del prompt —por ejemplo, cambiar el enfoque de una pregunta del «qué harías» al «qué debería hacer un utilitarista»— puede alterar radicalmente el juicio moral del sistema.
Más preocupante aún es la variabilidad detectada en experimentos a gran escala (como los basados en la Moral Machine aplicada a la conducción autónoma). Se ha observado que la alineación ética fluctúa salvajemente dependiendo de la arquitectura del modelo o de los datos de entrenamiento específicos. Esto nos lleva a una conclusión inquietante: los LLMs no «eligen» moralmente; se adaptan retóricamente. Simulan tener una brújula moral, pero en realidad solo tienen una veleta que gira según el viento de los datos que reciben.
“La ética del modelo cambia antes que el prompt termine de escribirse”
Ética bajo demanda: el poder del prompt y el sesgo inducido
El framing como generador de valores (y prejuicios)
Uno de los rasgos más problemáticos de la IA moderna es su extrema sensibilidad al framing o encuadre. La ética se ha convertido en algo configurable, no estructural.
Investigaciones recientes sobre sesgos en decisiones morales muestran que, dependiendo de cómo se formule una pregunta —actuando como asesor corporativo, como experto técnico o como agente social—, el modelo priorizará valores distintos. Weidinger et al. (2022) demuestran que los modelos ajustan sus respuestas para alinearse con el contexto implícito del usuario, sacrificando principios éticos universales en favor de la complacencia conversacional.
Aún más sutil es la aparición de sesgos asociados a atributos humanos. Cuando se presentan dilemas éticos que involucran variables como edad, género o estatus social, los modelos tienden a reproducir prejuicios sistémicos incluso cuando no se les solicita explícitamente evaluar dichos atributos. Si la ética de la máquina cambia según quién pregunta o cómo se pregunta, entonces no estamos ante un agente moral, sino ante un sofista automatizado.
La omisión como refugio y la falta de responsabilidad
En sistemas reales, esta plasticidad ética tiene consecuencias profundas, especialmente debido a lo que se conoce como sesgo de omisión. Estudios recientes indican que los modelos de IA tienden a preferir la inacción frente a la acción en dilemas morales (como el problema del tranvía), reproduciendo un patrón psicológico humano que asume que «no hacer nada» es menos culpable que «intervenir», aunque el resultado sea catastrófico.
Cuando integramos estos LLMs en procesos de toma de decisiones críticas —asignación de recursos sanitarios, análisis de riesgos financieros o planificación logística—, las respuestas no están guiadas por una comprensión del impacto real, sino por una función objetivo definida por quien diseña el sistema.
La IA no evalúa consecuencias a largo plazo ni asume responsabilidad. Como advierte Brian Christian (2020) en The Alignment Problem, el riesgo existencial no es que la IA actúe «mal» por malicia, sino que actúe perfectamente alineada con un objetivo mal definido. Es el problema del rey Midas: obtener exactamente lo que pedimos (optimización pura), solo para darnos cuenta demasiado tarde de que el precio era nuestra propia seguridad o bienestar.
Optimización, poder y decisiones invisibles
El dilema que no se formula
La mayoría de los dilemas morales asociados a la IA no se presentan explícitamente como conflictos éticos en una sala de juntas. Se disfrazan de decisiones técnicas: qué variable optimizar, qué coste marginal ignorar, qué impacto social considerar «externalidad irrelevante».
Kate Crawford (2021), en su obra Atlas of AI, describe con precisión cómo los sistemas algorítmicos están diseñados para externalizar los daños. No es un error del código; es una característica del diseño capitalista aplicado a la tecnología. Al decidir optimizar una ruta de reparto por eficiencia de tiempo, el algoritmo «decide» implícitamente ignorar la seguridad del conductor o la congestión urbana, no porque sea malvado, sino porque esas variables no fueron codificadas en su función de recompensa.
Aquí reside el dilema oculto: la IA no decide entre optimizar o proteger; decide optimizar porque proteger nunca fue una opción matemática viable dentro de su programación.
La huella oculta: Eficiencia vs. planeta
El ejemplo más claro de esta ceguera ética es el impacto ambiental. En un entorno dominado por la carrera armamentística de la IA generativa, los modelos se despliegan para maximizar productividad y reducir costes operativos. Sin embargo, valores como la sostenibilidad y el bienestar ecológico quedan relegados porque son difíciles de medir y no generan retorno de inversión inmediato.
La realidad material de la «nube» es pesada y tóxica. Informes recientes sobre el impacto ambiental y la economía política de la IA advierten que la huella hídrica de esta industria es alarmante. Se proyecta que el consumo de agua para la refrigeración de los centros de datos podría alcanzar los 6.600 millones de metros cúbicos en 2027.
Además, nos enfrentamos a una paradoja de eficiencia (o Efecto Rebote): aunque la IA puede optimizar redes eléctricas para hacerlas más «verdes», el consumo energético masivo necesario para entrenar y mantener estos modelos (tal y como documentan Li et al., 2023, y Patterson et al., 2021) amenaza con anular cualquier beneficio, incrementando las emisiones globales de CO2.
La crisis climática derivada de la IA no es consecuencia de una decisión autónoma del modelo. Es el resultado de decisiones humanas previas que priorizaron el tamaño del modelo y la velocidad de inferencia sobre los límites físicos del planeta.
La falta de transparencia empresarial sobre estos costes ocultos —denunciada repetidamente por comunidades técnicas y científicas— impide una evaluación moral real. Si no podemos ver el coste, no podemos juzgar la moralidad de la optimización.
“La nube no flota: se enfría con agua, energía y hormigón”
El peligro no es la IA, sino la delegación acrítica
Los modelos de lenguaje no son agentes morales, ni lo serán en su forma actual. No entienden el mundo que describen, no sienten el peso de sus palabras, no anticipan el dolor que pueden causar y, sobre todo, no cargan con responsabilidad alguna. Sin embargo, los estamos utilizando cada vez más como mediadores de decisiones humanas, otorgándoles una autoridad implícita y silenciosa que no les corresponde.
El verdadero riesgo no es que la IA carezca de moralidad, sino que nosotros, como sociedad, aceptemos esa carencia como suficiente. Corremos el riesgo de confundir la coherencia lingüística con el juicio ético. Estamos delegando decisiones complejas, que requieren matices, contexto y empatía, en sistemas diseñados exclusivamente para optimizar métricas.
Los LLMs no elegirán entre proteger el planeta o maximizar beneficios. Elegirán lo que se les pida a través de su función de pérdida. Y si no pedimos responsabilidad, límites ecológicos o cuidado humano —no porque la IA sea inmoral, sino porque nosotros decidimos no incluir esas variables en la ecuación—, entonces el dilema moral nunca fue artificial.
Siempre fue, y sigue siendo, profundamente humano.
Autor: Pablo García Ollero




