Home Forums Curso IA – Foro 2 – Ética en la Inteligencia Artificial: Navegando dilemas en contextos disciplinares Dilemas éticos del uso de la inteligencia artificial en psicología

  • Dilemas éticos del uso de la inteligencia artificial en psicología

    Posted by DORLY JESUS DE VOZ BABILONIA on 26 marzo, 2025 at 4:17 pm

    Dilemas éticos del uso de la inteligencia artificial en psicología

    Tal como lo menciona García (2024) la inteligencia artificial está transformando todos los campos incluyendo la psicología, ofreciendo herramientas con mayor precisión y rapidez, gracias a la inteligencia artificial se pueden personalizar estrategias terapéuticas, monitorear a las personas y analizar patrones, sin embargo, a pesar de estas ventajas, surgen dilemas éticos importantes que desafían la práctica psicológica y los principios fundamentales de la profesión.

    Uno de los principales dilemas éticos en psicología es la privacidad y confidencialidad de los datos. La IA requiere recopilar y analizar grandes cantidades de información sensible, como registros de sesiones terapéuticas, datos biométricos y evaluaciones psicológicas. Devia (2019) advierte que el manejo inadecuado de estos datos puede generar una violación significativa de la privacidad y afectar la confianza de los pacientes hacia los profesionales y las plataformas digitales. Además, existe el riesgo de que estos datos se utilicen con fines no autorizados, como marketing o análisis comerciales, lo que compromete la ética profesional y los derechos de los usuarios.

    Otro aspecto relevante es la posible deshumanización de la terapia psicológica. Aunque las plataformas de IA pueden ofrecer intervenciones terapéuticas accesibles y adaptadas, Salazar (2018) señala que la interacción humana y la empatía genuina son fundamentales en el proceso terapéutico. El riesgo de depender excesivamente de chatbots y asistentes virtuales podría reducir la complejidad emocional del vínculo terapéutico, minimizando la comprensión profunda del paciente y el contexto único de cada caso. La IA puede complementar la labor del psicólogo, pero nunca reemplazar el papel humano en el proceso de sanación y cambio.

    Además, el uso de la IA en el diagnóstico psicológico plantea dilemas éticos. Si bien estas herramientas pueden agilizar la identificación de trastornos mentales, hay riesgo de errores diagnósticos si los algoritmos no son precisos o si se basan en datos culturalmente sesgados. La falta de interpretaciones contextualizadas y el juicio clínico basado únicamente en datos pueden conducir a etiquetas diagnósticas inadecuadas, afectando negativamente la vida del paciente y perpetuando estigmas. Finalmente, surge la preocupación sobre la equidad y el acceso a estas tecnologías. Aunque la IA tiene el potencial de hacer que los servicios psicológicos sean más accesibles y económicos, no todos los sectores de la población tienen acceso a internet o dispositivos tecnológicos adecuados, esto puede profundizar las brechas en el acceso a la atención psicológica, dejando fuera a quienes más lo necesitan y perpetuando desigualdades sociales y económicas.

    Referencias bibliográficas

  • * Devia, A. M. (2019). La inteligencia
    artificial, el big data y la era digital: ¿una amenaza para los datos
    personales? Revista La Propiedad Inmaterial, 27 5–23.
  • * García. B. (2024). Inteligencia artificial
    para la educación: desafíos y oportunidades.
    Revista. Editora Praxis.
  • * Salazar-Ceballos, A. (2018). La inteligencia artificial vs la inteligencia humana. Duazary, 15(3), 249–250.
DIEGO FERNANDO replied hace 2 días, 17 horas 2 Members · 1 Reply
  • 1 Reply
    • DIEGO FERNANDO

      Member
      12 abril, 2025 at 11:53 am

      Buen día Dorly, muy interesante tu planteamiento sobre los efectos de una incorrecta utilización de la IA en el contexto de la Psicología, que se evidenciaría en su uso excesivo con la falta de interpretaciones contextualizadas y el juicio clínico basado únicamente en datos que puedan conducir diagnósticos inadecuados, que incluso podrían colocar en riesgo la integridad de los pacientes ya que el factor humano, la gestión de las emociones y los sentimientos, son elementos que aún algorítmicamente no se han modelado por su complejidad y versatilidad.

    Log in to reply.