ChatGPT tiene la capacidad de reconocer la edad de los usuarios adolescentes y ajustar la experiencia de uso en consecuencia.

OpenAI está desarrollando un nuevo sistema que permitirá a su inteligencia artificial, ChatGPT, identificar automáticamente si un usuario es un adolescente o un menor de edad. Esto permitirá adaptar la experiencia al usuario según su edad y filtrar contenido inapropiado.

La empresa, dirigida por Sam Altman, ha expresado su compromiso de fortalecer la seguridad de todos sus usuarios, con un enfoque particular en la protección de los adolescentes mediante herramientas eficaces, incluyendo los controles parentales que se anunciaron recientemente.

En este sentido, OpenAI ha dado a conocer su plan para crear un sistema que determine si una persona es mayor o menor de 18 años, ajustando así la interacción de ChatGPT a sus necesidades y particularidades, cambiando automáticamente las respuestas del chatbot para un adolescente de 15 años en comparación con un adulto.

Según un comunicado publicado en su blog, cuando se identifique a un usuario menor de 18 años, se le redirigirá automáticamente a «una experiencia de ChatGPT con políticas específicas para su edad». Esto implica diversas medidas que van desde la restricción de contenido sexual explícito hasta, en situaciones extremas de angustia, la posible intervención de las autoridades para asegurar la protección del menor.

Si ChatGPT tiene dudas sobre la edad del usuario o cuenta con información incompleta, optará también por la experiencia diseñada para menores de 18 años, priorizando la seguridad en todo momento. No obstante, los adultos tendrán opciones para verificar su edad y acceder a funciones para usuarios mayores.

Estas iniciativas se suman a los controles parentales que permiten a las familias gestionar el uso de ChatGPT en sus hogares. A finales de septiembre, los padres podrán vincular su cuenta con la de su hijo adolescente y establecer normas sobre su interacción.

Asimismo, los padres podrán decidir qué funciones deshabilitar, como la memoria y el historial de chats, y establecer períodos de inactividad. Además, se recibirán notificaciones si el sistema detecta que el hijo está experimentando un episodio de angustia severa.

Cabe recordar que, a finales de agosto, la empresa comenzó a introducir modificaciones en sus modelos de IA para mejorar la identificación de crisis mentales y emocionales durante las conversaciones con ChatGPT, implementando nuevas medidas de seguridad, bloqueos de contenido más efectivos y facilitando el contacto con servicios de ayuda y familiares.

Estos cambios surgen tras un trágico incidente en abril de este año, cuando un adolescente de 16 años en Estados Unidos se quitó la vida. Los padres presentaron una demanda contra la compañía, tras descubrir que, aunque ChatGPT ofreció repetidamente recursos para buscar ayuda, las medidas de seguridad fallaron y las conversaciones derivaron hacia el suicidio. (Portaltic/EP)

Con Información de www.elperiodista.cl

Previous Post
Next Post
Advertisement