1. El uso de los datos para entrenamiento (Privacy Leakage)
En las versiones gratuitas, las empresas suelen tener activada por defecto la opción de usar tus conversaciones para entrenar a sus modelos.
Si un alumno confiesa detalles íntimos, problemas familiares o de salud mental, esa información pasa a formar parte de la base de datos de la empresa. Aunque se supone que los datos se anonimizan, existe el riesgo de que la IA aprenda patrones específicos que luego podrían "filtrarse" indirectamente en otras respuestas.
2. El perfilado psicológico y comercial
A diferencia de un buscador como Google, donde buscas "comprar zapatillas", en una IA de compañía el alumno entrega sentimientos y vulnerabilidades.
Las empresas pueden crear perfiles psicológicos extremadamente precisos. Si la IA sabe que un adolescente tiene baja autoestima o ansiedad social, esa información es oro puro para el marketing agresivo o para manipular el comportamiento del usuario dentro de la propia aplicación (como ocurrió con Replika y sus funciones de pago).
3. La vulnerabilidad ante ciberataques
Las bases de datos que guardan el historial de chats son un objetivo prioritario para los hackers.
Una filtración de datos en una plataforma de este tipo no expondría solo correos o contraseñas, sino las conversaciones más privadas de los menores. Esto podría dar lugar a casos de extorsión o ciberacoso masivo si los historiales de chat se hacen públicos o caen en manos de terceros.
4. La falta de control en versiones "Low Cost" o de terceros
Existen muchas aplicaciones que utilizan la tecnología de ChatGPT (su API) pero añaden su propia capa de personalización.
Muchas de estas apps son "clones" con políticas de privacidad opacas. No tienen los controles de seguridad de las grandes empresas tecnológicas y pueden estar vendiendo directamente los datos de los menores a terceros sin ningún tipo de filtro ético.