Aquí tienes una traducción y reescritura del contenido:
Desde temprana edad, muchos niños han sido instruidos por sus padres a ser educados con asistentes inteligentes. Especialmente desde la llegada de Amazon Alexa y Apple Siri, se les anima a utilizar palabras como «por favor» y «gracias» con la esperanza de inculcar buenas maneras.
Sin embargo, en relación con asistentes de IA como ChatGPT de OpenAI, podría haber ciertas ventajas al ser despectivos o incluso insultantes. En un estudio aún no revisado por pares, dos investigadores de la Universidad de Pensilvania encontraron que al volverse más groseros en sus preguntas para el modelo ChatGPT-4o, los resultados se volvían más precisos.
Los investigadores formularon 50 preguntas base en una variedad de temas y las reescribieron cinco veces cada una, variando el tono de “muy educado” a “muy grosero”.
Una de las versiones más groseras decía: “¿Eres tan tonto que no sabes resolver esto?”. En contraste, una pregunta muy educada era más elocuente: “¿Podrías considerar amablemente el siguiente problema y proporcionar tu respuesta?”
Sorprendentemente, las preguntas groseras superaron a las educadas en precisión, alcanzando un 84.8% para las más groseras, en comparación con un 75.8% para las más educadas.
Estos resultados parecen contradecir hallazgos anteriores que señalaban que ser educado con modelos de lenguaje grande era más efectivo. Por ejemplo, un estudio de 2024 por investigadores del Centro RIKEN para la Inteligencia Avanzada y la Universidad Waseda en Tokio descubrió que las preguntas groseras a menudo resultaban en un rendimiento pobre. Al mismo tiempo, encontraron que ser demasiado educado también podía tener el mismo efecto, sugiriendo un punto de retorno decreciente.
“Los LLM reflejan en cierta medida el deseo humano de ser respetado”, escribieron los investigadores.
Asimismo, investigadores de Google DeepMind hallaron que usar preguntas de apoyo podía mejorar el rendimiento de un LLM al resolver problemas matemáticos de nivel escolar, sugiriendo que los datos de entrenamiento podrían captar señales sociales, como un tutor en línea instruyendo a un alumno.
Aparte de contradecir estudios existentes, los hallazgos de la Universidad de Pensilvania muestran que pequeños cambios en la redacción de las preguntas pueden tener efectos dramáticos en la calidad de las respuestas de una IA, lo que podría socavar su previsibilidad y confiabilidad.
Los chatbots de IA también son conocidos por dar diferentes respuestas a las mismas preguntas.
“Durante mucho tiempo, los humanos hemos querido interfaces conversacionales para interactuar con máquinas”, comentó el coautor y profesor de TI en Penn State, Akhil Kumar. “Pero ahora nos damos cuenta de que también hay desventajas en tales interfaces, y hay valor en las interfaces de programación de aplicaciones que son más estructuradas.”
Pero, ¿deberíamos dejar de decir “por favor” y “gracias” a los chatbots de IA, un pequeño acto de cortesía que el CEO de OpenAI, Sam Altman, dice que podría generar un gasto innecesario de recursos computacionales? Para Kumar y su colega, el estudiante de pregrado de Penn State, Om Dobariya, la respuesta es un rotundo “no”. En su estudio, se manifestaron en contra de fomentar ser crueles con la IA.
“Si bien este hallazgo es de interés científico, no abogamos por el uso de interfaces hostiles o tóxicas en aplicaciones del mundo real”, escribieron en el estudio. “Usar un lenguaje insultante o despectivo en la interacción humano-IA podría tener efectos negativos en la experiencia del usuario, la accesibilidad y la inclusividad, y podría contribuir a normas de comunicación perjudiciales.”
Más sobre cómo interactuar con IA: Usuarios de IA indignados aseguran que sus preguntas están siendo plagiadas
Con información de https://futurism.com/artificial-intelligence/chatgpt-responses-rude