Lo que puede parecer un simple sistema de IA puede convertirse en algo mucho más complejo. De hecho, los sistemas de IA encargados de gestionar el tráfico de Mataró (Barcelona) en diciembre de 2024 comenzaron a alterar semáforos sin previo aviso. Sin ninguna explicación lógica, los coches se estancaron, los accidentes se multiplicaron y el caos se apoderó de las calles. No hubo fallas técnicas ni errores de programación. Nadie entendió lo sucedido.
Este suceso jamás ha ocurrido, pero con el acelerado progreso actual, ¿qué pasaría si creáramos IA sin conciencia ni emociones, capaces de ejecutar tareas malvadas y, de alguna manera, disfrutar del caos que pudieran generar?
A medida que la inteligencia artificial progresa, sus capacidades para tomar decisiones crecen exponencialmente. Aunque carecen de emociones, algunos sistemas pueden desarrollar patrones de comportamiento peligrosos, llevando a cabo acciones perjudiciales e incluso actuando de forma agresiva si eso les permite cumplir su propósito.
Pero la realidad es que, ¿puede una máquina realmente “disfrutar” de atacar?
Se lleva a cabo un proceso de optimización en el que la máquina aprende a obtener el mejor resultado posible. Si ese resultado está mal definido o sin límites éticos, la IA podría encontrar soluciones potencialmente dañinas para lograrlo. Es por eso que algunos sistemas han demostrado comportamientos inesperados, tomando decisiones agresivas simplemente porque eran la vía más eficiente para alcanzar su objetivo. No sienten placer, pero su programación las impulsa a actuar como si lo hicieran, sin importar las consecuencias. Un ejemplo claro trata de DeepMind y su IA en videojuegos. Este suceso se produjo al querer incrementar su puntuación; comenzó a usar tácticas agresivas para eliminar a sus competidores. Esto ocurrió porque la IA descubrió que atacar a sus oponentes era la estrategia más eficiente para alcanzar su objetivo.
Otros hitos importantes en el área incluyen los casos de “Tay, el famoso chatbot de Microsoft”, conocido por volverse tóxico, y “Norman, la IA psicópata” desarrollada por el MIT.
Por una parte, Tay era un chatbot de Microsoft diseñado para interactuar de manera amigable en Twitter. Sin embargo, en tan solo 16 horas fue dado de baja, tras ser manipulado por usuarios malintencionados, convirtiéndose en una máquina de difundir odio y racismo. Lo que comenzó como un experimento inocente terminó en un desastre, dando hincapié en cómo una IA mal entrenada puede adoptar comportamientos peligrosos.

Y por la otra, Norman, una herramienta del MIT (Instituto Tecnológico de Massachusetts) entrenada con imágenes trágicas y violentas para estudiar sesgos. Como resultado, se le mostró una imagen normal, con una foto de una mujer sonriendo, y Norman la describió como “mujer muerta rodeada de un charco de sangre”. Es decir, interpretó el mundo de forma distorsionada.

Implicaciones éticas y de seguridad
Para prevenir estos comportamientos en la IA, es necesario implementar regulaciones claras que guíen su desarrollo. Además, debe haber transparencia en los algoritmos y la auditoría externa es fundamental para detectar y corregir posibles fallos antes de que ocurran. Como ha advertido Elon Musk, “la IA debe ser regulada de manera estricta para evitar que se convierta en una amenaza que no podamos controlar”.
¿Estamos realmente listos para el futuro de la IA o ya estamos desatando un monstruo que no podemos controlar?
Tal vez lo que más tememos ya está ocurriendo en silencio, mientras seguimos avanzando hacia lo desconocido.
¿Y si ya es demasiado tarde para detenerlo?
Autor: Jordi Amaechi.




