El incremento en la utilización de ChatGPT no solo conlleva ventajas, sino que también lleva a la recolección de ciertos datos de sus usuarios. En este sentido, OpenAI recoge diversos tipos de información de las cuentas de ChatGPT con el fin de mejorar el servicio y personalizar las experiencias de uso. En este contexto, ESET, referente en la detección proactiva de amenazas, ofrece recomendaciones sobre cómo configurar adecuadamente las cuentas y qué factores considerar para proteger la información.
La información recolectada por ChatGPT incluye:
- Datos de cuenta: Esto incluye información como el correo electrónico utilizado para la autenticación y el nombre de usuario. Para los usuarios de pago, también se registra información sobre el medio de pago. Además, se capturan las preferencias del usuario, como el idioma, temas de interés, y, si está activado, el historial de chat, que contiene preguntas y respuestas, para ofrecer un contenido más adaptado.
- Datos técnicos: Esto comprende la dirección IP del usuario, utilizada principalmente para la identificación con fines de seguridad y para prevenir abusos y suplantaciones. La IP también ayuda a estimar la ubicación del usuario y se registra información sobre el modelo de dispositivo y navegador utilizados para acceder a ChatGPT.
- Datos de uso: ChatGPT almacena información sobre la frecuencia y duración de las sesiones, así como las funciones empleadas, como la navegación y la generación de código e imágenes.
ChatGPT solo guarda la información que los usuarios proporcionan durante las interacciones, y la compañía no retiene datos personales fuera de las sesiones activas, a menos que el usuario lo solicite. Durante cualquier sesión, los usuarios tienen la opción de eliminar la información en el momento que deseen.
“ChatGPT no tiene acceso directo a información personal o privada, pero recuerda lo que el usuario proporciona durante las sesiones activas o posteriormente si así se configura. Por lo tanto, la cantidad de información almacenada dependerá del usuario y de su configuración de sesión. Aunque, por defecto, la información se guarda de forma separada en cada sesión. En última instancia, el usuario decide qué tipo de información compartir,” indica Fabiana Ramírez Cuenca, investigadora de seguridad informática de ESET Latinoamérica.
Con frecuencia, los usuarios comparten información personal o sensible, así como datos financieros y credenciales de diversas cuentas. Si bien compartir datos con el modelo GPT no representa un riesgo por sí mismo, dado que dicha información solo se mantiene dentro de la sesión actual, existe el riesgo de que una cuenta de ChatGPT sea accedida de manera no autorizada, lo que podría resultar en la exposición de información privada. En un caso de 2023, Gruop-IB informó sobre la venta de más de 100,000 cuentas de ChatGPT en la dark web.
“La gravedad de una violación de cuenta puede variar, ya que existen muchos riesgos asociados. Por ejemplo, los datos obtenidos pueden ser utilizados en ataques de ingeniería social o suplantación de identidad,” añade Ramírez Cuenca de ESET Latinoamérica.
OpenAI almacena los datos generalmente de manera temporal con el único objetivo de mejorar la experiencia de los usuarios; sin embargo, no conserva de forma permanente los historiales de conversaciones (para los usuarios gratuitos). Para los usuarios de pago, el periodo de almacenamiento puede ser determinado por el propio usuario. Toda la información está sujeta a rigurosas políticas de seguridad, utilizando cifrado AES-256 para los datos en reposo y protocolos TLS 1.2 o superiores para los datos en tránsito.
Además, se requiere el consentimiento de los usuarios para el almacenamiento y tratamiento de datos. Estos pueden revisar las políticas, términos y condiciones que aceptan al registrarse. Dentro de las configuraciones, se pueden seleccionar preferencias de privacidad. Asimismo, de acuerdo a las normativas de protección de datos, los usuarios pueden solicitar la eliminación, modificación y consulta de la información almacenada sobre ellos.
Para asegurar la protección de las cuentas en ChatGPT, ESET recomienda implementar diversas medidas de seguridad, la mayoría de las cuales se pueden ajustar dentro de la misma aplicación:
- Configuración de seguridad: Se aconseja usar contraseñas robustas para las cuentas y activar la autenticación de dos factores (2FA), cuando esté disponible, para evitar accesos no autorizados. Además, es importante cambiar las contraseñas de forma regular.
- Gestión de datos y consentimiento: Antes de compartir información en ChatGPT, es fundamental revisar las configuraciones de privacidad para entender qué datos se almacenan y cómo se utilizan, otorgando así un consentimiento informado.
- Revisión de sesiones activas: ChatGPT permite verificar las sesiones activas, lo cual resulta útil para identificar actividades inusuales.
- Medir la información compartida: Evitar proporcionar información sensible en los mensajes para prevenir que, en caso de acceso indebido a ChatGPT, se puedan obtener estos datos.
- Revisión de términos y políticas: Es recomendable revisar periódicamente los términos y políticas de la aplicación para conocer cambios y nuevas opciones de seguridad.
- Uso de dispositivos seguros: Se sugiere acceder a ChatGPT solo desde dispositivos protegidos con soluciones de seguridad como antimalware, y asegurarse de que los sistemas operativos estén actualizados a las últimas versiones para prevenir la explotación de vulnerabilidades.
- Cierre de sesión en dispositivos compartidos: Al usar ChatGPT en dispositivos públicos o compartidos, es recomendable cerrar sesión tras cada uso.
- Reportar actividades sospechosas: Si se detectan intentos de acceso no autorizados o actividades inusuales en la cuenta, se debe informar a OpenAI.
El artículo Qué datos almacena una cuenta de ChatGPT y cuáles son los peligros se publicó primero en Osorno en la Red.
Con información de osornoenlared.cl
Con Información de chilelindo.org