Científico Horrorizado Al Descubrir que ChatGPT Elimina Toda Su «Investigación»

Aquí tienes el contenido traducido y reescrito:


ChatGPT puede ser una herramienta útil si necesitas una segunda opinión para un correo contundente a tu casero sobre una fuga en el techo. También es excelente para generar un borrador inicial en escritos que no son cruciales, permitiéndote examinarlo y refinarlo con cuidado.

Sin embargo, como muchos de sus competidores, ChatGPT presenta numerosas limitaciones bien documentadas, desde alucinaciones comunes hasta un tono adulador que puede llevar a los usuarios a mantener creencias erróneas.

En resumen, no es exactamente una herramienta en la que cualquiera debería confiar para realizar trabajos importantes, una lección que el profesor Marcel Bucher de la Universidad de Colonia aprendió de manera difícil.

En una columna para la revista Nature, Bucher confesó que había “perdido” dos años de “trabajo académico cuidadosamente estructurado”, que incluía solicitudes de subvención, revisiones de publicaciones, conferencias y exámenes, después de desactivar la opción de “consentimiento de datos” de ChatGPT.

Desactivó esta función porque quería comprobar si aún podría acceder a todas las funciones del modelo sin proporcionar datos a OpenAI. Pero, para su desagrado, las conversaciones desaparecieron de inmediato sin dejar rastro.

“No apareció ninguna advertencia”, escribió Bucher. “No había opción de deshacer. Solo una página en blanco”.

La columna generó una avalancha de reacciones en redes sociales, con usuarios cuestionando cómo Bucher pudo pasar dos años sin hacer copias de seguridad locales. Otros se mostraron indignados, pidiendo que la universidad lo despidiera por depender tanto de la inteligencia artificial en su trabajo académico.

Sin embargo, algunos mostraron compasión.

“Bueno, felicidades a Marcel Bucher por compartir una historia sobre un flujo de trabajo profundamente flawed y un error estúpido”, escribió Roland Gromes, coordinador docente de la Universidad de Heidelberg, en una publicación en Bluesky. “Muchos académicos creen que pueden ver las trampas, pero todos podemos ser ingenuos y enfrentarnos a este tipo de problemas”.

Bucher admite que ChatGPT puede “producir declaraciones aparentemente seguras pero a veces incorrectas”, argumentando que nunca “equiparó su fiabilidad con la exactitud fáctica”. Aun así, “confió en la continuidad y estabilidad aparente del espacio de trabajo”, utilizando ChatGPT Plus como su “asistente diario”.

El uso de inteligencia artificial generativa en el ámbito científico ha generado mucha controversia.

Las revistas científicas están siendo “inundadas con mala calidad de contenido generado por AI”, convirtiendo el proceso de revisión por pares en una pesadilla, como informó The Atlantic esta semana. Están surgiendo revistas científicas fraudulentas que buscan capitalizar a quienes intentan publicar su contenido generado por AI. El resultado es que contenido de baja calidad está siendo revisado por modelos de inteligencia artificial, lo que agrava la contaminación en la literatura científica.

Los científicos, por su parte, están constantemente enterándose de cómo se cita su trabajo en diversos artículos nuevos, solo para descubrir que el material referenciado fue completamente alucinado.

Es importante aclarar que no hay evidencia de que Bucher intentara vender contenido de baja calidad a sus estudiantes o que buscara publicar investigaciones dudosas generadas por AI.

No obstante, su desafortunada experiencia con la plataforma debería servir como advertencia para otros.

En su columna, Bucher acusó a OpenAI de vender suscripciones de ChatGPT Plus sin garantizar “medidas de protección básicas” que impidieran que años de su trabajo desaparecieran en un instante.

En una declaración a Nature, OpenAI aclaró que las conversaciones “no pueden ser recuperadas” una vez eliminadas, y desafiaron la afirmación de Bucher de que “no hubo advertencia”, diciendo que “sí proporcionamos un aviso de confirmación antes de que un usuario elimine permanentemente una conversación”.

La empresa también recomendó que “los usuarios mantengan copias de seguridad personales para el trabajo profesional”.

Más sobre la mala calidad de contenido científico: The More Scientists Work With AI, the Less They Trust It.


Espero que esto sea lo que necesitabas. Si necesitas más ayuda, no dudes en preguntar.

Con información de https://futurism.com/artificial-intelligence/scientist-horrified-chatgpt-deletes-research

Previous Post
Next Post
Advertisement