• Posted by PEDRO CAMILO on 30 septiembre, 2024 at 12:09 am

    Se podría decir que toda actividad humana de una u otra manera está sujeta al cumplimiento de ciertos aspectos éticos. Los cuales, dependiendo la visión, cultura, necesidad, alcance, el lugar donde se desarrolle la actividad y el tipo de actividad desarrollada, pueden generar aceptación y rechazo de la comunidad (dilema). El empleo de las nuevas tecnologías, al ser un campo emergente, dinámico, de alta evolución (entre otros), su aplicación genera cierta alerta en quienes conocen del tema, y más aún en quienes lo desconocen. Centrando la atención de los dilemas éticos en las IA en el campo educativo, a la luz de autores como Maestre (2024); Quirós-Fons & García (2023) se presentan los siguientes:

    1. Equidad y acceso: La IA puede perpetuar o incluso agravar las desigualdades existentes en el sistema educativo, si no se garantiza que todos los estudiantes tengan acceso equitativo a la tecnología. Por ejemplo, los estudiantes de comunidades marginadas pueden no tener acceso a dispositivos tecnológicos o a la capacitación necesaria para utilizar herramientas de IA, lo que perpetúa las desigualdades existentes.

    2. Privacidad y seguridad de los datos: La recopilación de datos personales de los estudiantes, como historiales académicos y preferencias de aprendizaje, por parte de sistemas de IA plantea preocupaciones sobre la privacidad del educando. Por ejemplo, si una plataforma educativa utiliza IA para rastrear el rendimiento y el comportamiento de los estudiantes, podría recopilar información sensible sin el consentimiento adecuado, lo que podría llevar a la exposición de datos personales y a la violación de la privacidad.

    3. Autonomía: La dependencia excesiva de la IA en el proceso educativo puede afectar la autonomía de los estudiantes y educadores. Por ejemplo, si un sistema de IA toma decisiones sobre el contenido que un estudiante debe aprender, esto podría limitar la capacidad del estudiante para elegir su propio camino educativo y desarrollar habilidades críticas de pensamiento independiente.

    4. Transparencia: Muchos sistemas de IA son complejos y difíciles de entender. Así mismo, la falta de claridad sobre cómo funcionan los algoritmos de IA puede generar desconfianza. Por ejemplo, si un sistema de IA evalúa el desempeño de los estudiantes, pero no se explica cómo se toman esas decisiones, los educadores y estudiantes pueden cuestionar la validez de los resultados y sentirse inseguros sobre el proceso de evaluación.

    5. Sesgo algorítmico: Los algoritmos utilizados en sistemas de IA pueden estar sesgados, lo que significa que pueden perpetuar estereotipos o discriminación. Por ejemplo, si un sistema de IA es entrenado con datos que reflejan prejuicios históricos, podría tomar decisiones que favorezcan a ciertos grupos de estudiantes sobre otros, afectando su acceso a recursos educativos.

    6. Dependencia excesiva de la tecnología: La integración de la IA en el aula puede llevar a una dependencia excesiva de la tecnología, donde los educadores y estudiantes confían demasiado en las herramientas automatizadas para la enseñanza y el aprendizaje. Esto podría resultar en una disminución de las habilidades críticas y de pensamiento independiente entre los estudiantes.

    Referencias.

    Maestre, D. J. B. (2024). Interacción Humano-Inteligencia Artificial: Impactos Éticos del Uso de la IA en la Educación. Investigación y Acción, 4(1), 1-13.

    Quirós-Fons, A., & García-Ull, F. J. (2023). La IA educativa: dilemas y perspectivas éticas. In Conexiones digitales: las tecnologías como puentes de aprendizaje (pp. 571-584). Dykinson.

    PEDRO CAMILO replied hace 3 months, 3 semanas 1 Member · 0 Replies
  • 0 Replies

Sorry, there were no replies found.

Log in to reply.