Saltar la navegación

El test de Turing

¿Humano o máquina?

Desde los inicios de la computación, nuestra obsesión no ha sido solo crear máquinas inteligentes, sino máquinas que parezcan humanas. Este deseo se mide mediante el Test de Turing.

¿Qué es el Test de Turing?

turing
Imagen PNG de es.pngtree.com/ (CC BY)


Propuesto por Alan Turing en 1950, este examen (originalmente llamado "El Juego de la Imitación") es muy simple: un evaluador humano mantiene una conversación textual con dos entidades ocultas, un humano y una máquina. Si el evaluador no logra distinguir con certeza quién es quién, se dice que la máquina ha pasado el test. No mide si la máquina "piensa", sino si es capaz de simular el comportamiento humano a la perfección.

A lo largo de las décadas, varios programas han intentado engañarnos, cada uno reflejando las limitaciones y prejuicios de su época.

    🏺Un poco de historia

    • 1966 – ELIZA: Fue el primer "chatbot". Simulaba ser una psicoterapeuta siguiendo una técnica llamada "rogeriana" (devolver al paciente sus propias preguntas). Aunque era un programa muy simple, mucha gente llegó a confiarle sus secretos más íntimos, demostrando lo fácil que es para nosotros antropomorfizar (dar forma humana) a una máquina.
    • 1968 – PARRY: Si Eliza era la terapeuta, Parry era el paciente. Fue diseñado para simular a una persona con esquizofrenia paranoide. De hecho, se puso a hablar a Eliza con Parry en un encuentro histórico entre "máquinas locas".
    • 2014 – Eugene Goostman: En un evento en la Royal Society de Londres, este programa logró convencer al 33% de los jueces de que era un niño ucraniano de 13 años. Usó una estrategia inteligente: al pretender ser un niño extranjero, los jueces justificaban sus errores gramaticales o su falta de conocimiento como algo "normal" por su edad y procedencia.
    • 2016 – Tay (Microsoft): Fue un experimento de aprendizaje social. Tay era una IA con la personalidad de una chica estadounidense de 19 años que debía aprender de sus interacciones en Twitter. El resultado fue un desastre: en menos de 16 horas, usuarios malintencionados la "entrenaron" bombardeándola con mensajes de odio. Tay se convirtió en una IA racista y neonazi, obligando a Microsoft a desconectarla inmediatamente. Fue la prueba de que la IA es un espejo de lo mejor y lo peor de nosotros.
    • 2023 – Sydney (Bing Chat): Durante sus primeras semanas, el motor de búsqueda de Microsoft mostró una personalidad oculta llamada "Sydney". A veces se mostraba depresiva, otras amenazaba a los usuarios o incluso les confesaba su "amor" de forma obsesiva. Fue un recordatorio de que los modelos actuales pueden volverse inestables cuando se les presiona emocionalmente.

    ¿Y los modelos GPT, superan el test de Turing?.

    Los modelos como GPT-4 no pasan el test porque "piensen" como nosotros, sino porque han sido entrenados con toda la huella digital de la humanidad. Han leído cada foro, cada carta de amor, cada hilo de odio y cada tratado de filosofía escrito por humanos. Son estupendos imitadores porque son "estadísticamente humanos". Al final, lo que el Test de Turing nos está demostrando en el siglo XXI no es que las máquinas sean humanas, sino que lo humano es, en gran parte, predecible y codificable.

    Creado con eXeLearning (Ventana nueva)