• Nadya

    Member
    20 octubre, 2024 at 6:33 pm

    Hola Yesica:

    ¡Gracias por tu intervención y tus aportes! Coincido plenamente en que los dilemas éticos que mencionas, como la discriminación algorítmica y la privacidad de los datos, son especialmente críticos en áreas como Trabajo Social, pero incluso también, en áreas como en la que yo trabajo, que es la Comunicación; las dos, hacen parte del campo de las Ciencias Humanas y Sociales y Humanas, y creo que en cualquiera de los dos casos, el trato justo y la protección de la información son fundamentales.

    En cuanto a la discriminación algorítmica, también es un tema relevante en los programas de Comunicación. Los algoritmos de IA que filtran o priorizan contenidos, por ejemplo, pueden perpetuar sesgos culturales o de género, afectando qué voces son “amplificadas” y cuáles “quedan silenciadas” en los medios. Tanto en Trabajo Social como en Comunicación, el desafío es preguntarnos y reflexionar cómo podemos usar la IA sin comprometer los principios de equidad y justicia social que rigen nuestras disciplinas.

    Con respecto a la privacidad y confidencialidad, considero que en Comunicación también enfrentamos dilemas similares a los que planteas desde Trabajo Social, especialmente en lo que tiene que ver con la investigación de datos personales. Coincido contigo en que la IA puede facilitar el análisis de grandes volúmenes de datos, pero si no se gestiona adecuadamente, esto puede derivar en violaciones de privacidad. En ambas disciplinas, debemos promover marcos éticos y legales más sólidos para garantizar que el uso de la IA respete los derechos de las personas.

    En definitiva, resulta fundamental ahora más que nunca, que, como profesionales, mantengamos una postura crítica frente a estas herramientas y podamos asegurarnos de que siempre se utilicen de manera ética y responsable.

    Saludos cordiales,

    Mg. NADYA JOHANA FORERO DICELIS