En la era de la tecnología en la que nos encontramos y con el progreso notable de la inteligencia artificial, Alan Turing sentó las bases de la inteligencia de las máquinas en su artículo “Computing Machinery and Intelligence” publicado en 1950. Pavimentó el camino hacia un debate de preguntas profundas sobre la consciencia, el proceso de pensamiento humano y la habilidad de poder distinguir a un humano de una máquina.
80 años más tarde, el artículo de Turing sigue en boca de los expertos, dejando un legado de pruebas para diferenciar humanos de máquinas que usan los usuarios de Internet día a día en herramientas tan simples como CAPTCHA. Lo que en un principio empezó como un artículo de poco más de 20 páginas donde Turing daba su opinión acerca de la capacidad que tenían las máquinas de poder llegar a pensar y razonar como lo haría un humano, se transformó en un punto de inflexión de lo que sería hoy la inteligencia artificial.
Alan Turing fue un informático británico, por algunos considerado brillante, que asentó las bases de la computación como se conocen hoy en día. Algunos de sus trabajos más conocidos incluyen el descifrado de los mensajes Enigma de los Nazis durante la Segunda Guerra Mundial, la primera máquina computadora de Gran Bretaña, ACE, y las Pruebas (o test) de Turing, protagonistas de este artículo.
En su papel sobre la inteligencia de las máquinas, Turing explica un simple juego al que bautiza como “Juego de Imitación” (1950, p. 433), años más tarde lo conoceríamos como “Prueba de Turing”. Consiste en una simple dinámica donde una persona ejerce de juez y entabla conversación con dos personas más, cada una de un sexo distinto. El juez debe ser capaz de determinar al final del juego que persona es de cada sexo. Ahora, ¿qué pasaría si en vez de dos humanos, el juez habla con una máquina y un humano? ¿sería capaz de diferenciarlos? Esta misma pregunta es la que se hacía Turing reconduciendo el debate a nuestra propia definición de lo que se considera pensar.
Si una máquina puede realizar una tarea que atribuimos al pensamiento, pero su enfoque o proceso es diferente del humano ¿se debería seguir considerando una forma de pensar?
En su artículo, Turing nos explica el funcionamiento del juego y cuales podrían ser las máquinas que tomen partido en él. Sin embargo, no hace referencia a detalles tan importantes como si el juez debe ser alguien experto o maduro, si debe saber que entre sus usuarios ocultos se encuentra una máquina o hacerle creer que está conversando únicamente con humanos, o algo tan simple como el tiempo que debe durar la prueba. Lo que sí determina y con especial hincapié es que los humanos no actúen de ninguna forma especial, sino que sean ellos mismos.
Esto es así porque si intentamos que un humano se haga pasar por una máquina haría una actuación pobre. Se vería de lejos, por ejemplo, la inexactitud y lentitud en cálculos aritméticos. Sin embargo, para una máquina esto supone un reto, ya que no depende tanto de su capacidad computacional para resolver complicadas ecuaciones, sino que tendrá que adaptarse y entender conductas humanas tan básicas y naturales como el humor, la mentira o un malentendido.
Con el paso de los años la Prueba de Turing ha sido utilizada en numerosas ocasiones para determinar el grado de inteligencia de una máquina. Turing estableció que el juez debía fallar un 70% de las veces al tratar de descifrar la identidad de la máquina para considerar que esta había superado la prueba satisfactoriamente. Declaró que, a principios de los años 2000, los ordenadores tendrían capacidad suficiente para pasar la prueba.
Sin embargo, aunque es cierto que los avances en tecnología han hecho esto posible, las pocas máquinas consiguieron defenderse un mínimo ante la prueba de Turing lo han hicieron engañando a los jueces más que usando su total capacidad computacional.
Algunos ejemplos son: ELIZA diseñado por Joseph Weizenbaum en 1966, simulaba a un psiquiatra. Consistía en un algoritmo que reconocía las palabras en las respuestas del juez y las utilizaba en la siguiente pregunta. PARRY fue desarrollado por Kenneth Colby en 1972 y fue una máquina que simulaba ser un esquizofrénico paranoide, enmascarando aquellas respuestas que no tenían mucho sentido para el juez. En 2014 Eugene Goostman, una máquina que se hacía pasar por un niño ucraniano de trece años logró engañar a un tercio de los jueces de un evento realizado en la Royal Society de Londres. Estos atribuían la gramática extraña e incongruente a la barrera de lenguaje.
Las Pruebas de Turing han sido objeto de muchos debates y discusiones. Han sido criticadas por sus limitaciones, pero también han sido aclamadas como un hito importante en el campo de la inteligencia artificial. Con los avances de la tecnología, el uso de este pequeño test se ha generalizado de manera significativa en la red en forma de los famosos CAPTCHA.
Así como en el “Juego de Imitación” de Turing es un juez humano el que intenta identificar quién es el humano y quien la máquina, es ahora en la red dónde revertimos este proceso, automatizándolo y haciendo del juez una máquina que trata de interceptar a otras máquinas que se hacen pasar por humanos. Los CAPTCHAS (Completely Automatic Public Turing test to tell Computers and Humans Apart) son herramientas que aplican directamente el famoso test de Turing en la red que cualquier usuario de Internet se encuentra día a día.
Estas pruebas están repartidas todo Internet y se utilizan en multitud de servicios. Vienen en varios formatos. En las más famosas encontramos un texto distorsionado que se muestra en pantalla y la prueba consiste simplemente en que el usuario escriba el texto correctamente sin fallos. Su versión accesible para aquellos usuarios con discapacidad visual sería con un audio distorsionado, donde una vez más, tienen que escribir el texto que escuchan. Algunas webs recurrían a pruebas tan curiosas como preguntas de trivial o puzzles. Hace ya tiempo que no se ven este tipo de versiones por la red, sino que en sustitución se muestran otras más modernas que incluyen el reconocimiento de objetos en fotografías, como el famoso CAPTCHA de Google haciendo uso de fotos del servicio Google Maps, dónde se pide al usuario identificar aquellas que tengan un semáforo, una farola, un puente, etc.
No obstante, estas pruebas siguen en constante evolución y optimización. Los bots disponen de programas y algoritmos cada vez más sofisticados y por ello las pruebas deben serlo también. La última innovación de Google incluye el “no CAPTCHA”, en el cual el usuario únicamente tiene que dar clic en la caja que pone “No soy un robot”. Utiliza un mecanismo que analiza el movimiento del ratón, imperfecto y ondulante en humanos, pero recto y sin desviaciones en bots. También realiza un breve vistazo a las cookies y el historial del usuario. Es una forma simple de determinar si es humano o no, y en el caso de levantar sospechas, el programa obligará al usuario a hacer una de las pruebas habituales CAPTCHA.
El porqué del uso de estas pruebas es simple. Los bots son una realidad en la web y su número no se va a reducir, todo lo contrario, no para de aumentar. Suelen ser programas simples que tienen un objetivo. Pueden estar diseñados para darle “me gusta” a un vídeo de YouTube en cuanto este se publique, pueden rellenar formularios de inicio de sesión para crear cuentas falsas, enviar numerosas peticiones en cuestión de segundos a un servidor para tumbarlo o incluso participar en la compra masiva de billetes de conciertos para para su posterior reventa con precios desorbitados. Los CAPTCHAS pueden ayudar a mitigar el impacto de estos bots, imponiendo un desafío que, idealmente, solo los usuarios humanos puedan superar. Estas pruebas actúan como barreas, asegurando que las interacciones online requieran un mínimo de capacidad cognitiva, algo que los bots, con su simplicidad programada encuentran difícil de replicar.
El futuro de la inteligencia artificial es conseguir la Inteligencia General Artificial (AGI por sus siglas en inglés), un tipo de IA que comprende aprende y realiza tareas de forma parecida a como lo haría un cerebro humano. Todo lo que se ha trabajado hasta ahora en este campo nos ha llevado hasta la Inteligencia Artificial Estrecha, que es en esencia modelos matemáticos intentando darle sentido a los datos de los que se alimenta. Estos modelos hacen que algoritmos conversacionales como podrían ser el que sustenta a CHATGPT o Bing superen con creces el Test de Turing, al conseguir una conversación fluida y al responder preguntas de manera coherente y contextualmente relevante. Sin embargo, volvemos al debate de Turing, ¿si una máquina llega a la misma conclusión que nosotros, pero siguiendo un algoritmo matemático para juntar datos y llegar al resultado, se puede considerar pensar o es una simple mecanización?
Arancha Carpintero
PD APPLIED COMPUTING & ARTIFICIAL INTELLIGENCE
Déjanos tus datos y te enviamos el link de descarga
Rellena el formulario y te enviamos el link de descarga por correo
Déjanos tus datos y te enviamos el link de descarga
Rellena el formulario y te enviamos el link de descarga por correo
Rellena el formulario y te enviamos el link de descarga por correo
Rellena el formulario y te enviamos el link de descarga por correo