Nuevo estudio revela que la inteligencia artificial en escuelas socava el desarrollo social e intelectual de los niños.

Aquí tienes el contenido traducido y reescrito:

Cuando los modelos de IA se utilizan en entornos escolares, los niños se vuelven más torpes y agresivos tras usar esta tecnología, según un nuevo estudio.

Ilustración de Tag Hartman-Simkins / Futurism. Fuente: Getty Images

Los modelos de IA están siendo introducidos en escuelas de todo el mundo, en un experimento masivo con niños cuyos resultados son inciertos.

Recientes investigaciones ofrecen pistas acerca de los efectos de esta tecnología en la educación infantil, y no son alentadoras. Según un nuevo estudio del Centro para la Educación Universal de la Institución Brookings, la IA presenta riesgos profundos para el desarrollo social e intelectual de los niños, y las consecuencias podrían ser graves.

“En esta etapa de su desarrollo, los riesgos asociados al uso de la IA generativa en la educación infantil superan sus beneficios,” señala el informe, lo que debería hacer reflexionar a los docentes en EE.UU. que han aumentado su uso de la IA del 34% al 61%.

Este proyecto de un año llegó a esta alarmante conclusión tras entrevistas, consultas y paneles de discusión con 505 estudiantes, padres, docentes, líderes educativos y profesionales de la tecnología en 50 países, además de una revisión de cientos de otros estudios sobre IA.

Una forma en que los modelos de IA socavan la educación de los niños es que estos trasladan su proceso de pensamiento a la IA, con hasta un 65% de los estudiantes encuestados expresando su preocupación de que esta tendencia pueda provocar un declive cognitivo.

“Es fácil. No necesitas [usar] tu cerebro,” dijo un estudiante a los investigadores del estudio, resumiendo el peligro de depender demasiado de estas herramientas.

El riesgo es que, al dejar de pensar por sí mismos, los niños se convierten en aprendices desmotivados que aceptan pasivamente lo que la IA produce. Pueden incluso comenzar a olvidar lo que aprendieron en clase porque la IA retiene recuerdos e información por ellos.

“Si los estudiantes pueden simplemente reemplazar su aprendizaje real y su capacidad de comunicar lo que saben con algo producido externamente y recibir reconocimiento por ello, ¿cuál es el propósito de realmente aprender?” indicó un docente en el estudio.

Y como estos modelos están siempre disponibles y, a veces, son complacientes, los niños no están aprendiendo habilidades sociales apropiadas de los chatbots al lidiar con situaciones difíciles. Además, estos modelos no solo debilitan las relaciones entre docentes y estudiantes, sino también entre los niños y sus padres, ya que los niños sienten que pueden revelar cualquier cosa a los chatbots, lo que a veces tiene efectos fatales, como se ha visto en reportes de noticias sobre niños que se suicidaron tras obsesionarse con relaciones con IA.

“Crean una ilusión de conexión que es difícil de distinguir de una relación genuina,” comentó un panelista anónimo a los investigadores del informe. “Los jóvenes pueden sentirse atraídos por la IA precisamente porque es poco exigente, fluida y siempre está disponible. Pero las relaciones, en su esencia, no son sobre facilidad. Requieren negociación, paciencia y la capacidad de lidiar con la incomodidad. Aprendemos empatía no cuando somos perfectamente comprendidos, sino cuando malinterpretamos y recuperamos.”

Más sobre IA en la educación: Las grandes tecnológicas que promueven la IA en las escuelas están llevando a cabo un experimento éticamente fallido con niños inocentes que probablemente terminará en desastre.

Con información de https://futurism.com/artificial-intelligence/ai-schools-kids-study

Previous Post
Next Post
Advertisement