-
Dilemas éticos en el uso de la IA en las Ciencias Sociales
Buenos días para todas, todos y todes, deseando se encuentren muy bien. Para este ejercicio, quise conversar con colegas de Uniminuto dentro de las Ciencias Sociales, en disciplinas como Trabajo Social, Desarrollo Familiar, Psicología y Antropología, a partir de ello, reflexionamos acerca de algunos asuntos:
Un primer dilema que nos aparece es el riesgo de perder el horizonte entre lo que lo que el humano puede debatir, crear, construir y el tiempo que ello le demanda. Y, pasar al modo automático de depender de la respuesta automatizada de un chatbot que termina respondiendo a la eficacia de un sistema que clasifica y olvida la apuesta ética-política del profesional que piensa, acompaña, se sitúa y actúa. En sí mismo, la IA no es problema por sí sola, lo problemático, como debate ético es el uso que como profesionales se hace de ella. Debates similares se plantearon en las Ciencias Sociales e investigación cuando aparecieron los software para disminuir el tiempo de categorizar la información e incluso ampliar el alcance de relacionamiento de categorías que, como investigadores, estábamos limitados. Actualmente, ya no se plantea como problema hacer uso de programas como Atlas Ti o Nvivo, pues se reconoce que el investigador sigue analizando. De ese modo, es que se espera que con la IA se pueda hacer. Pero, mientras estemos con el encantamiento de un chat que produce una respuesta “sin aparente error” perdemos el horizonte que estamos cediendo nuestra capacidad de pensar y preguntar los intereses que subyacen a la lógica de la producción masiva y veloz de respuestas.
Un segundo dilema, en particular desde la salud mental, producir diagnósticos masivamente, o tener chats que respondan con una serie lógica programada para cada diagnóstico puede ser eficaz para un mundo de etiquetas, de venta de fármacos y creación de “enfermos y tratamientos” pero no necesariamente gesta profesionales o maquinas capaces de construir un escenario de escucha donde el otro se sienta acogido para escucharse.
Un tercer dilema, desde el Trabajo Social, es delegar la responsabilidad de una atención, intervención, interacción y en general de diseño de un proceso social a la IA, pues aunque puede brindar elementos muy coherentes, en ocasiones desconoce asuntos de contexto que son fundamentales para que el ejercicio profesional sea pertinente con las condiciones de las personas que son parte de estos. Así mismo, se corre el riesgo desde lo ético de perder el toque humano y sensible que deben tener los procesos de transformación social, en cuanto a la producción creativa, emergente y flexible que debe caracterizarlos, si nos ubicamos desde una perspectiva de comprensión socio-constructiva.
Un cuarto dilema, desde el Desarrollo Familiar. La IA puede perpetuar y amplificar sesgos y discriminación presentes en los datos de entrenamiento, generando resultados injustos en evaluaciones y asignaciones de recursos para familias vulnerables. La opacidad de muchos algoritmos dificulta la transparencia y la rendición de cuentas en decisiones con impacto significativo en la vida familiar, planteando interrogantes sobre la responsabilidad y la posibilidad de apelación.
También, el uso de grandes cantidades de datos personales y familiares sensibles para la IA genera serias preocupaciones sobre la privacidad, la confidencialidad y la seguridad de la información, con riesgos de vigilancia indebida y uso indebido. Además, existe el temor de que una dependencia excesiva de la IA deshumanice los procesos de intervención y disminuya la importancia de la relación humana y el juicio profesional empático, elementos centrales en el desarrollo familiar.
Asegurar la autonomía y el consentimiento informado de las personas y familias frente al uso de la IA es un desafío, especialmente con poblaciones vulnerables. Determinar la responsabilidad y establecer mecanismos de rendición de cuentas cuando la IA causa daño o injusticia es complejo. El abordaje y discusión de estos dilemas requiere una mirada interdisciplinaria y la creación de marcos éticos y regulatorios que prioricen el bienestar, la dignidad y los derechos de las familias, para un uso responsable de la IA que complemente y fortalezca la labor profesional en lugar de sustituirla.
Pensar en dilemas éticos, nos tendría que ubicar inicialmente, en la pregunta acerca del ¿Qué es lo correcto por el motivo correcto?, teniendo presente los principios de vida que Platón propuso: justicia, verdad, bondad y belleza, si la acción profesional la acogemos a una mirada reflexiva en torno de ellos, tendremos la posibilidad de definir si una situación se nos plantea en forma de dilema. En ese sentido, un dilema ético con el uso de la IA, es llegar a considerar que ya no necesitamos de las capacidades humanas y que todo se logra resolver con el apoyo de la IA.
También pensar que la IA no está al servicio de lo humano, sino que ella en sí misma es un ente autónomo. La IA es un apoyo para la acción humana para ahorrar tiempo a la producción inicial.
Un saludo, Eliana
Log in to reply.