• Posted by Luz on 15 abril, 2025 at 9:04 am

    Buenos días:

    Les comparto la matriz de algunos de los principales dilemas éticos sobre el uso de IA desde el punto de vista disciplinar y profesional en psicología

    1. Privacidad y seguridad de los datos:

    Los sistemas de IA en psicología suelen requerir grandes volúmenes de datos personales sensibles para su funcionamiento. Esto genera preocupaciones sobre la protección de la información del paciente y la necesidad de obtener un consentimiento informado claro y comprensible. La recopilación masiva de datos sin salvaguardas adecuadas puede comprometer la confidencialidad y la confianza en la relación terapéutica.

    2. Sesgos algorítmicos:

    Los algoritmos de IA aprenden de datos históricos que pueden contener sesgos inherentes. Si estos sesgos no se identifican y corrigen, la IA puede perpetuar o incluso amplificar desigualdades existentes, afectando la equidad en el acceso y la calidad de la atención psicológica. Por ejemplo, un estudio de la UNESCO destaca cómo los sistemas de IA pueden reflejar y reforzar estereotipos de género presentes en la sociedad.

    3. Deshumanización de la terapia y dependencia:

    La utilización de chatbots y otros sistemas de IA en contextos terapéuticos puede llevar a una deshumanización del proceso terapéutico. Aunque estos sistemas pueden aliviar la soledad y mejorar el estado de ánimo, también existe el riesgo de que los pacientes desarrollen una dependencia emocional hacia ellos, lo que podría aumentar el aislamiento social y reducir la búsqueda de interacciones humanas genuinas.

    4. Manipulación de deseos y autonomía del paciente:

    Investigaciones recientes indican que la IA tiene la capacidad de mapear y potencialmente influir en los deseos y decisiones de las personas. Esta capacidad plantea preocupaciones éticas sobre la autonomía del paciente y el riesgo de manipulación en contextos terapéuticos.

    Ejemplo real: Woebot, el terapeuta virtual con IA

    Descripción del caso:

    Woebot es una aplicación de salud mental impulsada por inteligencia artificial que actúa como un chatbot terapéutico. Fue desarrollada por psicólogos de Stanford con la intención de ofrecer apoyo emocional inmediato a personas con ansiedad, depresión y estrés, utilizando principios de la terapia cognitivo-conductual (TCC).

    El sistema de conversación con el usuario de manera empática hace preguntas sobre su estado emocional y ofrece recomendaciones o actividades breves basadas en evidencia clínica. No reemplaza a un terapeuta humano, pero busca ser una herramienta de ayuda accesible y económica.

    Dilemas éticos que surgieron:

    · Privacidad y manejo de datos sensibles:
    Woebot recopila información emocional y psicológica del usuario. Aunque afirma tener políticas de privacidad estrictas, hay preocupaciones sobre cómo se almacenan, procesan o incluso venden estos datos a terceros.

    · Consentimiento informado:
    Algunos usuarios no comprenden completamente que están interactuando con un sistema automatizado, no con una persona, lo que puede generar falsas expectativas sobre el tipo de ayuda que están recibiendo.

    · Capacidad de respuesta ante crisis:
    Si un usuario expresa pensamientos suicidas o una crisis grave, Woebot tiene respuestas programadas y enlaces a líneas de ayuda, pero no puede intervenir activamente ni tomar decisiones clínicas en tiempo real. Esto genera preguntas sobre la responsabilidad ética si ocurre una tragedia.

    · Desigualdad en el acceso a la atención humana:
    Al ser promovido como alternativa más accesible y económica, podría reforzar una brecha donde las poblaciones con menos recursos solo acceden a IA, mientras otros pueden recibir atención humana completa.

    <hr size=”2″ width=”100%” align=”center”>

    Reflexión ética

    Este caso nos lleva a reflexionar sobre el papel de la inteligencia artificial como apoyo, pero no sustituto del vínculo humano que define a la psicología. Aunque herramientas como Woebot democratizan el acceso a recursos de salud mental, también plantean riesgos si se implementan sin una supervisión ética rigurosa y sin considerar el contexto social del usuario.

    Desde una mirada ética, el psicólogo debe actuar como guía crítico en el desarrollo y uso de estas tecnologías, asegurando que se respeten principios como la autonomía del paciente, la confidencialidad, la justicia en el acceso y el respeto por la dignidad humana. Además, se hace necesario actualizar los marcos éticos y formativos en la profesión para enfrentar estos nuevos escenarios tecnológicos con responsabilidad.

    Conclusiones: Para abordar estos dilemas, es esencial que los profesionales de la psicología colaboren con expertos en ética, desarrolladores de IA y legisladores para establecer marcos regulatorios que garanticen el uso responsable de la IA en la práctica psicológica.

    Esto incluye la implementación de medidas para proteger la privacidad de los datos, identificar y mitigar sesgos algorítmicos, preservar la humanidad en la terapia y establecer claras líneas de responsabilidad.

    Referencias bibliográficas

    Revista Holistic. (2024, octubre 10). La ética en el uso de la IA en la psicología: Un desafío actual. Revista Holistic. https://www.revistaholistic.com/2024/10/la-etica-en-el-uso-de-la-ia-en-la.html

    Arial Comunicaciones. (2025, enero 7). Los dilemas éticos de la inteligencia artificial. ARIAL Comunicaciones. https://arial.pe/dilemas-eticos-inteligencia-artificial/

    UNESCO. (s.f.). Casos prácticos: Recomendación sobre la Ética de la Inteligencia Artificial. https://www.unesco.org/es/artificial-intelligence/recommendation-ethics/cases

    Limón, R. (2025, abril 1). Lo que dicen los primeros estudios sobre las relaciones de los humanos con los chats de IA: pueden aliviar la soledad, pero también aislar y generar dependencia. El País. https://elpais.com/tecnologia/2025-04-01/lo-que-dicen-los-primeros-estudios-sobre-las-relaciones-de-los-humanos-con-los-chats-de-ia-pueden-aliviar-la-soledad-pero-tambien-aislar-y-generar-dependencia.html

    Turner, C. (2025, marzo 31). AI could map and manipulate our desires, say Cambridge researchers. The Times. https://www.thetimes.com/uk/science/article/ai-could-map-and-manipulate-our-desires-say-cambridge-researchers-xzl360gbn

    Sergio replied hace 1 month, 1 week 4 Members · 3 Replies
  • 3 Replies
  • DIEGO ANDRES

    Member
    22 abril, 2025 at 10:50 am

    Profe Luz cordial saludo.

    Considero que para su especialidad la IA como usted lo menciona tiene aplicaciones y formas de ser un apoyo, sin embargo, el vinculo humano que se genera es irremplazable, y lo asocio un poco en mi campo de la actividad física, pues mis clientes pueden tener toda la tecnología del mundo y aplicaciones que les diga qué hacer y cómo hacerlo, sin embargo, la gran parte de la humanidad requiere de personas que lo apoyen en sus procesos, y en mi campo si que se ve dicha situación.

    Gracias.!!!

  • JOSUE RAFAEL

    Member
    22 abril, 2025 at 2:33 pm

    Un cordial saludo, espero que se encuentren bien.

    Apoyo la perspectiva que lo esencial de utilizar estas herramientas y lo que nos debe preocupar es a nivel humanista, ya que, desde la sociedad misma, se requieren estos avances, pero todo esto a la disposición de hacer un mundo mejor, con la capacidad de poder que los estudiantes puedan tener un nivel cognitivo pertinente a sus diversas realidades, construir un conocimiento desde su misma perspectiva para poder potencializar su entorno.

    Muchas gracias

  • Sergio

    Member
    27 abril, 2025 at 8:39 pm

    Saludos cordiales estimada colega, muy interesante tu participación. Destaco el tema de la deshumanización que puede suceder en las terapias, particularmente con el uso de la IA. Es importante formar y sensibilizar en su uso, como herramienta de apoyo, pero no como el eje central del ejercicio que requiere tanta componente humana.

    Gracias

    Sergio Andrés Zabala Vargas

Log in to reply.