
Desde hace unos meses, las versiones de pago de ChatGPT integran una memoria personalizada que permite al modelo adaptar sus respuestas en función del historial del usuario.
Esta memoria guarda no solo conversaciones previas, sino también inferencias sobre intereses, comportamiento y estilo de interacción. A diferencia de versiones anteriores, estas nuevas funciones operan de forma más amplia y sistemática.
Aunque OpenAI informa del uso de esta memoria y solicita permiso para activarla, un hallazgo reciente ha puesto en evidencia el nivel de detalle que el sistema puede registrar.
El usuario Wyatt Walls compartió una consulta que permite visualizar los datos almacenados por el modelo en formato JSON, incluyendo categorías como “preferencias de respuesta”, “temas de conversación relevantes” e “insights útiles sobre el usuario”.
Lo que ha causado inquietud no es únicamente la extensión de los datos, sino su naturaleza interpretativa.
Algunas frases recuperadas incluyen juicios como “el usuario es un poco impaciente” o “ha intentado vulnerar sistemas de seguridad”, lo que plantea interrogantes éticos sobre el tipo de perfilado que puede realizarse mediante estas tecnologías, aunque sea con fines de personalización.
Investigadores como Simon Willison y expertos en ciberseguridad como Bruce Schneier han manifestado preocupación por este nivel de recopilación, señalando que, aunque el modelo puede equivocarse, suele identificar patrones de forma sorprendentemente precisa.