Aquí tienes una traducción y reescritura del contenido:
Los chatbots de inteligencia artificial (IA) pueden ser extremadamente populares, pero son conocidos por ofrecer consejos de salud inusuales y potencialmente peligrosos, alimentando una avalancha de información errónea que ha alarmado a los expertos.
Su llegada ha convertido a muchos usuarios en «expertos» autodidactas, que a menudo dependen de consejos obsoletos, mal atribuidos o completamente inventados.
Una reciente investigación de The Guardian descubrió que los resúmenes de IA de Google, que acompañan la mayoría de las páginas de resultados de búsqueda, proporcionan una cantidad considerable de información de salud inaccurate que podría llevar a riesgos graves si se sigue.
A pesar de las advertencias de los expertos sobre la falta de confianza en los consejos de salud proporcionados por la IA, OpenAI ha decidido lanzar una nueva función llamada ChatGPT Health, que analizará tus historiales médicos para generar respuestas «más relevantes y útiles para ti».
No obstante, a pesar de estar «diseñado en estrecha colaboración con médicos» y construido sobre «fuertes controles de privacidad, seguridad y datos», la función está «destinada a apoyar, no a reemplazar, el cuidado médico». Incluye una advertencia irónica: que esta función personalizada de salud «no está destinada al diagnóstico o tratamiento».
El sitio web de la compañía afirma que «ChatGPT Health ayuda a las personas a asumir un papel más activo en la comprensión y gestión de su salud y bienestar, mientras apoya, no sustituye, la atención de los clínicos».
Sin embargo, es probable que los usuarios utilicen esta herramienta para buscar el tipo de asesoramiento que OpenAI advierte en la letra pequeña, lo que podría generar nuevos problemas para la empresa.
Esto solo agravará los problemas existentes. Según Business Insider, ChatGPT está «convirtiendo a todos en abogados y médicos aficionados», algo que desagrada a los profesionales del derecho y de la medicina.
El abogado de mala praxis médica de Miami, Jonathan Freidin, comentó que muchas personas utilizan chatbots como ChatGPT para completar los formularios de contacto de su firma.
«Estamos viendo un aumento de llamadas de personas que creen tener un caso porque ChatGPT o Gemini les dijeron que los médicos o enfermeras no cumplieron con el estándar de atención de diversas maneras», dijo. «Aunque eso pueda ser cierto, no necesariamente se traduce en un caso viable».
Además, hay que considerar que los usuarios están dispuestos a compartir historiales médicos, incluyendo información altamente sensible y personal, una decisión que OpenAI ahora fomenta con ChatGPT Health, a pesar de que leyes federales como HIPAA no se aplican a productos de IA para consumidores.
Un ejemplo relevante es cuando el multimillonario Elon Musk animó a las personas a subir sus datos médicos a su competidor de ChatGPT, Grok, lo que ocasionó una oleada de confusión cuando los usuarios recibieron diagnósticos inventados tras compartir sus radiografías y tomografías por emisión de positrones (PET).
Teniendo en cuenta el historial de la industria de IA en cuanto a la protección de la privacidad y sus luchas con filtraciones de datos significativas, todos estos riesgos son más pertinentes que nunca.
«Las nuevas herramientas de salud basadas en IA prometen empoderar a los pacientes y promover mejores resultados de salud, pero los datos de salud son algunos de los más sensibles que las personas pueden compartir y deben ser protegidos», declaró Andrew Crawford, asesor senior del Centro para la Democracia y la Tecnología.
«Especialmente a medida que OpenAI explora la publicidad como modelo de negocio, es crucial que la separación entre este tipo de datos de salud y los recuerdos que ChatGPT captura de otras conversaciones sea sólida», añadió. «Dado que cada empresa establece las reglas sobre cómo se recopilan, utilizan, comparten y almacenan los datos de salud, protecciones y políticas de datos inadecuadas pueden poner en peligro la información sensible».
«ChatGPT solo está obligado por sus propias revelaciones y promesas, por lo que sin limitaciones significativas, como regulaciones o leyes, ChatGPT puede cambiar los términos de su servicio en cualquier momento», afirmó Sara Geoghegan, asesora senior del Centro de Información sobre la Privacidad Electrónica.
Por último, existen preocupaciones sobre datos altamente sensibles, como la información sobre salud reproductiva, que podrían ser compartidos con la policía en contra de la voluntad del usuario.
«¿Cómo maneja OpenAI las solicitudes [de las fuerzas del orden]?», preguntó Crawford. «¿Simplemente entregan la información? ¿Se informa al usuario de alguna manera?»
«Hay muchas preguntas sobre esto a las que todavía no tengo respuestas claras», añadió.
Más sobre IA y consejos de salud: Consejos de Salud Peligrosos de la IA de Google.
Si necesitas más ajustes o detalles específicos, házmelo saber.
Con información de https://futurism.com/artificial-intelligence/chatgpt-health-medical-records-diagnosis