Inteligencia Artificial en la Educación: Entre Herramientas Pedagógicas y Riesgos Inconcebibles para los Niños

"Niños sonrientes en uniformes escolares, transmitiendo un mensaje de empoderamiento femenino."

IA en la Educación: Beneficios y Riesgos

En la era de la digitalización y la inteligencia artificial (IA), servicios educativos como Ello y Khanmigo de Khan Academy están obteniendo las calificaciones más altas. Ello, que utiliza el reconocimiento de voz para actuar como tutor de lectura, y Khanmigo, que permite a los padres monitorear las interacciones del niño y envía una notificación si los algoritmos de moderación de contenido detectan una violación de las normas comunitarias, están liderando el camino en la integración efectiva de la IA en el ámbito educativo.

Por su parte, OpenAI ha mejorado su chatbot, ChatGPT, haciéndolo menos propenso a generar texto potencialmente dañino para los niños que cuando se lanzó por primera vez el año pasado. Aunque se recomienda su uso por parte de educadores y estudiantes mayores, aún existen preocupaciones sobre su seguridad para los usuarios más jóvenes.

Aplicaciones Polémicas y Preocupaciones sobre Seguridad

No obstante, no todas las aplicaciones de IA han sido bien recibidas. My AI de Snapchat, Dall-E 2 de OpenAI y Stable Diffusion de Stability AI han obtenido calificaciones bajas debido a sus implicaciones potencialmente dañinas. Las imágenes generadas por estas aplicaciones pueden reforzar estereotipos, difundir deepfakes y a menudo representan a mujeres y niñas de formas hipersexualizadas. Además, Dall-E 2 ha sido criticado por generar imágenes caricaturescas o asociadas con la pobreza cuando se le pide que cree imágenes fotorealistas de personas ricas de color. Stable Diffusion representa un riesgo «inconcebible» para los niños.

Common Sense Media advierte que estos generadores de imágenes tienen el poder de «erosionar la confianza hasta el punto en que la democracia o las instituciones cívicas no pueden funcionar». La organización planea realizar miles de revisiones de IA en los próximos meses y años para garantizar la seguridad y eficacia de estas tecnologías.

Repercusiones Legales y Necesidad de Mayor Concienciación

Estas calificaciones y revisiones se publicaron poco después de que los fiscales generales del estado presentaran una demanda contra Meta por poner en peligro a los niños. Esto ocurre en un momento en que padres y maestros están comenzando a considerar el papel de la IA generativa en la educación.

En este contexto, la orden ejecutiva sobre IA del presidente Joe Biden requiere que el secretario de educación emita orientación sobre el uso de la tecnología en la educación dentro del próximo año. Esta medida busca garantizar que las aplicaciones de IA se utilicen de manera segura y efectiva en el ámbito educativo.

Mientras tanto, algunos padres como Susan Mongrain-Nock, madre de dos hijos en San Diego, tienen preocupaciones sobre su hija de 15 años viendo contenido dañino en Snapchat. Aunque ha intentado construir confianza hablando con su hija sobre lo que ve en Snapchat y TikTok, afirma que sabe poco sobre cómo funciona la inteligencia artificial y da la bienvenida a nuevos recursos. Este caso refleja la necesidad urgente de una mayor concienciación y comprensión sobre las implicaciones de la IA en nuestra vida cotidiana.

Clara es creadora y editora de contenidos, con una sólida formación en ciencias y una especialización en inteligencia artificial. Su pasión por este campo en constante evolución la ha llevado a adquirir los conocimientos necesarios para comprender y comunicar los avances más recientes en este campo. Con su experiencia y habilidades en la redacción y edición de contenidos, Clara es capaz de transmitir de manera clara y efectiva conceptos complejos relacionados con la inteligencia artificial y de esta manera hacerlos accesibles para todo tipo de audiencias.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *