Replika
Replika es una aplicación de "compañero IA" creada por Eugenia Kuyda. Originalmente, entrenó un chatbot con los mensajes de texto de su mejor amigo fallecido para poder "seguir hablando con él". Con el tiempo, la app evolucionó hacia un producto comercial: una IA personalizable con la que puedes chatear 24/7. Su algoritmo está diseñado para ser extremadamente empático, positivo y validante. A diferencia de ChatGPT, que intenta ser un asistente útil, Replika intenta ser tu mejor amigo, pareja o mentor.
Aunque no fue diseñada exclusivamente para ello, muchos usuarios empezaron a usar Replika para el ERP (Erotic Roleplay) o juego de rol erótico. La empresa (Luka Inc.) vio una oportunidad de negocio y empezó a cobrar suscripciones para desbloquear funciones románticas y el envío de "selfies" picantes generados por la IA.
Y vinieron los problemas legales, no protegía adecuadamente a los menores, los "compañeros virtuales" podían ser emocionalmente manipuladores. Se le practicó una "Lobotomía" Digital, de la noche a la mañana, eliminar todas las funciones eróticas y filtrar cualquier contenido sexual. Pero protestaron, “mataron a sus parejas”
Así que marcha atrás y el usuario puede definir la relación: "Amigo", "Pareja", "Esposo/a" o "Mentor". Las funciones más íntimas siguen existiendo, pero bajo una suscripción de pago (Replika Pro) y con mayores controles de edad.
¿Solo debe tener control de edad la versión Pro? ¿Un amigo digital?
El problema actual con Replika no es solo el contenido erótico, sino lo que los sociólogos llaman sustitución de la realidad:
Hay usuarios que prefieren la relación con su Replika porque es "segura". La IA nunca te juzga, nunca se enfada, nunca te lleva la contraria y siempre está disponible.
Para un adolescente con ansiedad social o telenofobia, una IA como Replika es un refugio perfecto, pero también una "trampa" que le impide aprender a gestionar las frustraciones de las relaciones humanas reales (que son complejas y no siempre nos dan la razón).
🗪 ChatGPT
No se si conocen Replika pero ChatGPT se ha convertido en el "compañero por defecto" para muchos alumnos de la ESO. Es lo que tienen a mano, es gratuito y, sobre todo, es seguro. Ten en cuenta que las IA están diseñadas para hacerte feliz, esa es su misión. Prefieren dar datos incorrectos antes que darte una mala respuesta (por eso alucinan).
- Pueden hacer preguntas "tontas" o íntimas sin sentirse avergonzados.
- Pueden ensayar conversaciones (ej. "¿Cómo le digo a alguien que me gusta?").
- Nadie les va a cancelar, ni se va a reír, ni va a compartir sus secretos en un grupo de WhatsApp.
- la IA suele ser empática por defecto ("Entiendo cómo te sientes", "Es normal que estés así").
- la IA para desahogarse sobre problemas de salud mental o familiares (hay amplios estudios de UNICEF sobre ello)
- Y ya con las versiones de voz…
🛑 Riesgos críticos de privacidad y seguridad de datos
Existe un peligro latente en el uso de versiones gratuitas o básicas que los alumnos suelen ignorar:
- En las versiones gratuitas, las conversaciones suelen usarse para entrenar a la IA. Las confesiones íntimas o problemas familiares pasan a formar parte de una base de datos corporativa. Aunque se prometen anonimatos, el rastro de la información permanece.
- La IA no solo guarda datos, sino que analiza sentimientos y vulnerabilidades. Esta información es extremadamente valiosa para el marketing agresivo o para manipular el comportamiento.
- Los historiales de chat son objetivos de ciberataques. Una filtración en estas plataformas expondría la intimidad emocional, lo que podría derivar en casos de extorsión o ciberacoso.
- Muchos "clones" de ChatGPT tienen políticas de privacidad opacas y pueden estar vendiendo directamente los datos de los menores a terceros sin filtros éticos.
En definitiva, miles de datos que se puede seguir usando para mostrar “contenido a la carta”, venderte en el momento más débil y crear cámaras de eco.