• Posted by YESICA on 19 octubre, 2024 at 4:45 pm

    1. Discriminación Algorítmica y Sesgo

    La IA utiliza algoritmos que pueden reflejar o amplificar sesgos presentes en los datos con los que ha sido entrenada. En el ámbito del Trabajo Social, esto puede ocurrir en sistemas de evaluación de riesgo, por ejemplo, cuando se utilizan herramientas predictivas para identificar familias o individuos en riesgo de negligencia o abuso infantil. Si los algoritmos están basados en datos históricos que incluyen sesgos raciales, socioeconómicos o de género, es probable que las decisiones también reflejen esos prejuicios. Desde un punto de vista teórico, esto desafía los principios fundamentales del Trabajo Social, como la justicia social y la equidad. En la práctica, los trabajadores sociales podrían depender de sistemas que no son completamente justos, lo que podría resultar en intervenciones inapropiadas o en la exclusión de ciertos grupos.

    2. Privacidad y Confidencialidad de Datos

    En el Trabajo Social, los profesionales manejan información altamente confidencial sobre la vida personal de individuos y familias. Con el uso de IA y análisis de datos masivos (big data), existe el riesgo de violaciones a la privacidad si no se protege adecuadamente la información. El uso de IA para analizar datos sensibles, como historiales médicos, informes de abuso o datos de intervención, puede poner en riesgo la confidencialidad de los usuarios. El principio de confidencialidad es un pilar ético en el Trabajo Social. El uso indebido de la IA podría poner en entredicho este principio, ya que se pone en riesgo el derecho de las personas a la privacidad y al control sobre su información personal.

    Nadya replied hace 3 months 2 Members · 1 Reply
  • 1 Reply
  • Nadya

    Member
    20 octubre, 2024 at 6:33 pm

    Hola Yesica:

    ¡Gracias por tu intervención y tus aportes! Coincido plenamente en que los dilemas éticos que mencionas, como la discriminación algorítmica y la privacidad de los datos, son especialmente críticos en áreas como Trabajo Social, pero incluso también, en áreas como en la que yo trabajo, que es la Comunicación; las dos, hacen parte del campo de las Ciencias Humanas y Sociales y Humanas, y creo que en cualquiera de los dos casos, el trato justo y la protección de la información son fundamentales.

    En cuanto a la discriminación algorítmica, también es un tema relevante en los programas de Comunicación. Los algoritmos de IA que filtran o priorizan contenidos, por ejemplo, pueden perpetuar sesgos culturales o de género, afectando qué voces son “amplificadas” y cuáles “quedan silenciadas” en los medios. Tanto en Trabajo Social como en Comunicación, el desafío es preguntarnos y reflexionar cómo podemos usar la IA sin comprometer los principios de equidad y justicia social que rigen nuestras disciplinas.

    Con respecto a la privacidad y confidencialidad, considero que en Comunicación también enfrentamos dilemas similares a los que planteas desde Trabajo Social, especialmente en lo que tiene que ver con la investigación de datos personales. Coincido contigo en que la IA puede facilitar el análisis de grandes volúmenes de datos, pero si no se gestiona adecuadamente, esto puede derivar en violaciones de privacidad. En ambas disciplinas, debemos promover marcos éticos y legales más sólidos para garantizar que el uso de la IA respete los derechos de las personas.

    En definitiva, resulta fundamental ahora más que nunca, que, como profesionales, mantengamos una postura crítica frente a estas herramientas y podamos asegurarnos de que siempre se utilicen de manera ética y responsable.

    Saludos cordiales,

    Mg. NADYA JOHANA FORERO DICELIS

Log in to reply.