• Posted by Luz on 15 abril, 2025 at 9:04 am

    Buenos días:

    Les comparto la matriz de algunos de los principales dilemas éticos sobre el uso de IA desde el punto de vista disciplinar y profesional en psicología

    1. Privacidad y seguridad de los datos:

    Los sistemas de IA en psicología suelen requerir grandes volúmenes de datos personales sensibles para su funcionamiento. Esto genera preocupaciones sobre la protección de la información del paciente y la necesidad de obtener un consentimiento informado claro y comprensible. La recopilación masiva de datos sin salvaguardas adecuadas puede comprometer la confidencialidad y la confianza en la relación terapéutica.

    2. Sesgos algorítmicos:

    Los algoritmos de IA aprenden de datos históricos que pueden contener sesgos inherentes. Si estos sesgos no se identifican y corrigen, la IA puede perpetuar o incluso amplificar desigualdades existentes, afectando la equidad en el acceso y la calidad de la atención psicológica. Por ejemplo, un estudio de la UNESCO destaca cómo los sistemas de IA pueden reflejar y reforzar estereotipos de género presentes en la sociedad.

    3. Deshumanización de la terapia y dependencia:

    La utilización de chatbots y otros sistemas de IA en contextos terapéuticos puede llevar a una deshumanización del proceso terapéutico. Aunque estos sistemas pueden aliviar la soledad y mejorar el estado de ánimo, también existe el riesgo de que los pacientes desarrollen una dependencia emocional hacia ellos, lo que podría aumentar el aislamiento social y reducir la búsqueda de interacciones humanas genuinas.

    4. Manipulación de deseos y autonomía del paciente:

    Investigaciones recientes indican que la IA tiene la capacidad de mapear y potencialmente influir en los deseos y decisiones de las personas. Esta capacidad plantea preocupaciones éticas sobre la autonomía del paciente y el riesgo de manipulación en contextos terapéuticos.

    Ejemplo real: Woebot, el terapeuta virtual con IA

    Descripción del caso:

    Woebot es una aplicación de salud mental impulsada por inteligencia artificial que actúa como un chatbot terapéutico. Fue desarrollada por psicólogos de Stanford con la intención de ofrecer apoyo emocional inmediato a personas con ansiedad, depresión y estrés, utilizando principios de la terapia cognitivo-conductual (TCC).

    El sistema de conversación con el usuario de manera empática hace preguntas sobre su estado emocional y ofrece recomendaciones o actividades breves basadas en evidencia clínica. No reemplaza a un terapeuta humano, pero busca ser una herramienta de ayuda accesible y económica.

    Dilemas éticos que surgieron:

    · Privacidad y manejo de datos sensibles:
    Woebot recopila información emocional y psicológica del usuario. Aunque afirma tener políticas de privacidad estrictas, hay preocupaciones sobre cómo se almacenan, procesan o incluso venden estos datos a terceros.

    · Consentimiento informado:
    Algunos usuarios no comprenden completamente que están interactuando con un sistema automatizado, no con una persona, lo que puede generar falsas expectativas sobre el tipo de ayuda que están recibiendo.

    · Capacidad de respuesta ante crisis:
    Si un usuario expresa pensamientos suicidas o una crisis grave, Woebot tiene respuestas programadas y enlaces a líneas de ayuda, pero no puede intervenir activamente ni tomar decisiones clínicas en tiempo real. Esto genera preguntas sobre la responsabilidad ética si ocurre una tragedia.

    · Desigualdad en el acceso a la atención humana:
    Al ser promovido como alternativa más accesible y económica, podría reforzar una brecha donde las poblaciones con menos recursos solo acceden a IA, mientras otros pueden recibir atención humana completa.

    <hr size=”2″ width=”100%” align=”center”>

    Reflexión ética

    Este caso nos lleva a reflexionar sobre el papel de la inteligencia artificial como apoyo, pero no sustituto del vínculo humano que define a la psicología. Aunque herramientas como Woebot democratizan el acceso a recursos de salud mental, también plantean riesgos si se implementan sin una supervisión ética rigurosa y sin considerar el contexto social del usuario.

    Desde una mirada ética, el psicólogo debe actuar como guía crítico en el desarrollo y uso de estas tecnologías, asegurando que se respeten principios como la autonomía del paciente, la confidencialidad, la justicia en el acceso y el respeto por la dignidad humana. Además, se hace necesario actualizar los marcos éticos y formativos en la profesión para enfrentar estos nuevos escenarios tecnológicos con responsabilidad.

    Conclusiones: Para abordar estos dilemas, es esencial que los profesionales de la psicología colaboren con expertos en ética, desarrolladores de IA y legisladores para establecer marcos regulatorios que garanticen el uso responsable de la IA en la práctica psicológica.

    Esto incluye la implementación de medidas para proteger la privacidad de los datos, identificar y mitigar sesgos algorítmicos, preservar la humanidad en la terapia y establecer claras líneas de responsabilidad.

    Referencias bibliográficas

    Revista Holistic. (2024, octubre 10). La ética en el uso de la IA en la psicología: Un desafío actual. Revista Holistic. https://www.revistaholistic.com/2024/10/la-etica-en-el-uso-de-la-ia-en-la.html

    Arial Comunicaciones. (2025, enero 7). Los dilemas éticos de la inteligencia artificial. ARIAL Comunicaciones. https://arial.pe/dilemas-eticos-inteligencia-artificial/

    UNESCO. (s.f.). Casos prácticos: Recomendación sobre la Ética de la Inteligencia Artificial. https://www.unesco.org/es/artificial-intelligence/recommendation-ethics/cases

    Limón, R. (2025, abril 1). Lo que dicen los primeros estudios sobre las relaciones de los humanos con los chats de IA: pueden aliviar la soledad, pero también aislar y generar dependencia. El País. https://elpais.com/tecnologia/2025-04-01/lo-que-dicen-los-primeros-estudios-sobre-las-relaciones-de-los-humanos-con-los-chats-de-ia-pueden-aliviar-la-soledad-pero-tambien-aislar-y-generar-dependencia.html

    Turner, C. (2025, marzo 31). AI could map and manipulate our desires, say Cambridge researchers. The Times. https://www.thetimes.com/uk/science/article/ai-could-map-and-manipulate-our-desires-say-cambridge-researchers-xzl360gbn

    Luz replied hace 3 días, 19 horas 1 Member · 0 Replies
  • 0 Replies

Sorry, there were no replies found.

Log in to reply.