• Posted by YESICA on 19 octubre, 2024 at 4:45 pm

    1. Discriminación Algorítmica y Sesgo

    La IA utiliza algoritmos que pueden reflejar o amplificar sesgos presentes en los datos con los que ha sido entrenada. En el ámbito del Trabajo Social, esto puede ocurrir en sistemas de evaluación de riesgo, por ejemplo, cuando se utilizan herramientas predictivas para identificar familias o individuos en riesgo de negligencia o abuso infantil. Si los algoritmos están basados en datos históricos que incluyen sesgos raciales, socioeconómicos o de género, es probable que las decisiones también reflejen esos prejuicios. Desde un punto de vista teórico, esto desafía los principios fundamentales del Trabajo Social, como la justicia social y la equidad. En la práctica, los trabajadores sociales podrían depender de sistemas que no son completamente justos, lo que podría resultar en intervenciones inapropiadas o en la exclusión de ciertos grupos.

    2. Privacidad y Confidencialidad de Datos

    En el Trabajo Social, los profesionales manejan información altamente confidencial sobre la vida personal de individuos y familias. Con el uso de IA y análisis de datos masivos (big data), existe el riesgo de violaciones a la privacidad si no se protege adecuadamente la información. El uso de IA para analizar datos sensibles, como historiales médicos, informes de abuso o datos de intervención, puede poner en riesgo la confidencialidad de los usuarios. El principio de confidencialidad es un pilar ético en el Trabajo Social. El uso indebido de la IA podría poner en entredicho este principio, ya que se pone en riesgo el derecho de las personas a la privacidad y al control sobre su información personal.

    JAMES MAURICIO replied hace 2 months, 1 week 7 Members · 6 Replies
  • 6 Replies
  • Nadya

    Member
    20 octubre, 2024 at 6:33 pm

    Hola Yesica:

    ¡Gracias por tu intervención y tus aportes! Coincido plenamente en que los dilemas éticos que mencionas, como la discriminación algorítmica y la privacidad de los datos, son especialmente críticos en áreas como Trabajo Social, pero incluso también, en áreas como en la que yo trabajo, que es la Comunicación; las dos, hacen parte del campo de las Ciencias Humanas y Sociales y Humanas, y creo que en cualquiera de los dos casos, el trato justo y la protección de la información son fundamentales.

    En cuanto a la discriminación algorítmica, también es un tema relevante en los programas de Comunicación. Los algoritmos de IA que filtran o priorizan contenidos, por ejemplo, pueden perpetuar sesgos culturales o de género, afectando qué voces son “amplificadas” y cuáles “quedan silenciadas” en los medios. Tanto en Trabajo Social como en Comunicación, el desafío es preguntarnos y reflexionar cómo podemos usar la IA sin comprometer los principios de equidad y justicia social que rigen nuestras disciplinas.

    Con respecto a la privacidad y confidencialidad, considero que en Comunicación también enfrentamos dilemas similares a los que planteas desde Trabajo Social, especialmente en lo que tiene que ver con la investigación de datos personales. Coincido contigo en que la IA puede facilitar el análisis de grandes volúmenes de datos, pero si no se gestiona adecuadamente, esto puede derivar en violaciones de privacidad. En ambas disciplinas, debemos promover marcos éticos y legales más sólidos para garantizar que el uso de la IA respete los derechos de las personas.

    En definitiva, resulta fundamental ahora más que nunca, que, como profesionales, mantengamos una postura crítica frente a estas herramientas y podamos asegurarnos de que siempre se utilicen de manera ética y responsable.

    Saludos cordiales,

    Mg. NADYA JOHANA FORERO DICELIS

  • ABEL LEANDRO

    Member
    16 marzo, 2025 at 6:15 pm

    Hola apreciada Yesica,,

    Fraterno saludo,

    Lograr una gestión adecuada de la IA es uno de los retos más importantes de nuestro tiempo, ya que exige un aprendizaje mutuo basado en las lecciones y buenas prácticas que surgen de las distintas jurisdicciones de todo el mundo.

    La cuestión no es si legislar o no sobre la IA y las tecnologías convergentes, sino cuál es la mejor manera de hacerlo. Necesitamos una verdadera coordinación mundial y compartir conocimientos para construir un ecosistema de IA responsable que beneficie a todos.

    Con aprecio,

    Abel Devoz

    • This reply was modified hace 2 months, 3 semanas by  ABEL LEANDRO.
  • DEIVI DAVID

    Member
    19 marzo, 2025 at 1:40 pm

    Saludos Yesica, apoyo la tesis y tu argumento en la importancia de la privacidad de la información. Hoy estos modelos generativos, tienen acceso a múltiples datos y pueden generar volúmenes de información que simples instrucciones. Aquí se analiza la veracidad de la información y la forma que el modelo logro obtener información. Son aspectos éticos esenciales para uso de los datos, más cuando en Colombia existe normas que regula el uso de los datos.

  • YEIMY KARINA

    Member
    21 marzo, 2025 at 12:28 pm

    Buena tarde, Yesica.
    Coincido contigo en el peligro que se puede presentar cuando la información es limitada o sesgada, los algoritmos deben pensarse de forma tal que sean capaces de representar la diversidad y entender los diferentes aspectos que se pueden presentar. En el caso de Trabajo Social tenemos la particularidad de que trabajamos con realidades, comunidades y territorios que presenta características diversas y procesos heterogéneos, por ende, se debe tener la capacidad de no perder esa representación de las diferentes formas que coexisten en la sociedad.
    Por otra parte, la privacidad, la confidencialidad en el manejo de la información son aspectos éticos que se deben manejar con responsabilidad, ya que, pueden afectar a las comunidades con las cuales intervenimos. La información es relevante para la toma de decisiones y procesos de evaluación, es por ello, que si utilizamos las IA para el procesamiento de datos y la confidencialidad esta debe estar acorde con estos principios básicos.

  • Nelson

    Member
    27 marzo, 2025 at 8:16 pm

    Es importante lo que mencionas sobre la confidencialidad de los datos, hoy vemos muchas personas inescrupulosas que se valen del mal uso de datos o del uso indebido sencillamente porque la internet les facilita esa mala labor. Reflexionando hasta que punto nuestra seguridad de datos en un futuro cercano ¿estará amenazada? Aunque vemos que muchas empresas virtuales invierten tiempo y capital en la seguridad cibernética, el hacking sigue creciendo día a día, desarrollando nuevas estrategias para penetrar la seguridad de muchas empresas y personas. Esperemos que este dilema ético sea siempre abordado y trabajado para minimizar su accionar.

  • JAMES MAURICIO

    Member
    28 marzo, 2025 at 11:43 am

    Hola Yesica, gracias por tu reflexión, que considero muy pertinente no solo para el Trabajo Social, sino también para otras disciplinas como la mía, la Ingeniería Industrial.

    Coincido contigo en que la discriminación algorítmica representa un reto transversal. En ingeniería industrial, por ejemplo, cuando se implementan algoritmos para selección de personal o evaluación de desempeño, pueden reproducirse sesgos históricos contra ciertos grupos poblacionales si no se aplican mecanismos de corrección y supervisión humana. Esto va en contravía del principio de justicia organizacional que, al igual que en Trabajo Social, también debería guiar nuestras decisiones técnicas.

    Respecto a la privacidad y confidencialidad, es aún más crítico si consideramos que muchos ingenieros industriales están ahora integrando IA para analizar datos biométricos de empleados o monitorear su productividad. Aunque esto se presenta como eficiencia, si no hay consentimiento informado ni límites éticos claros, se corre el riesgo de caer en prácticas de vigilancia que afectan la dignidad humana.

    Me parece valioso cómo traes a colación principios fundamentales del Trabajo Social. Tal vez desde nuestras disciplinas técnicas necesitamos adoptar también una ética del cuidado, más allá de la eficiencia o el rendimiento. En ese sentido, propongo que avancemos hacia una cultura de auditoría ética algorítmica interdisciplinar, que involucre a profesionales del Trabajo Social, la Ingeniería, la Comunicación y el Derecho, para construir entornos más justos y humanos.

    Saludos cordiales,

Log in to reply.