-
Dilemas éticos del uso de la IA en el contexto profesional
Buenas noches para todos.
De acuerdo con el tema planteado para el desarrollo del foro, comparto algunos de los dilemas analizados, generados a partir de la evaluación de impacto del uso de la IA en diferentes entornos:
Primer dilema ético – Sesgo algorítmico
La IA aprende de datos históricos, los cuales muchas veces reflejan prejuicios o desigualdades existentes. Esto puede hacer que las decisiones automatizadas terminen reproduciendo o incluso amplificando discriminaciones sociales, económicas o de género.
Ejemplo
Un software usado por empresas para contratar personal descarta hojas de vida de mujeres jóvenes, hombres adultos y otras variables porque el sistema “aprendió” que se estos casos pueden impactar la productividad.
Impacto
Nos obliga a revisar cómo entendemos la justicia y la equidad en decisiones automatizadas. En Colombia, también nos lleva a repensar los marcos jurídicos frente a la discriminación.
Impacto en la práctica
Puede llevar a decisiones injustas sin que los responsables se den cuenta. Empresas colombianas pueden enfrentar críticas o sanciones por prácticas discriminatorias automatizadas.
Segundo dilema ético – Privacidad y vigilancia
El uso de IA puede cruzar límites cuando recolecta y analiza datos personales sin pedir permiso. Esto afecta el derecho a la intimidad, que en Colombia está protegido constitucionalmente.
Ejemplo
Aplicaciones de salud almacenan datos sensibles de los usuarios y luego los comparten con aseguradoras o empresas sin informar de manera clara sobre todo su uso.
Impacto
Cuestiona el concepto clásico de consentimiento informado y exige replantear el papel del ciudadano frente a los sistemas tecnológicos que afectan su vida.
Impacto en la práctica
Los profesionales deben ser más cuidadosos con la protección de datos. En Bogotá y otras ciudades, ya hay alertas sobre el mal uso de información sensible en salud, educación y finanzas.
Tercer dilema ético – Responsabilidad en decisiones automatizadas
Cuando una decisión importante es tomada por una máquina, como aprobar o rechazar un crédito, es difícil saber quién responde por los errores o consecuencias que afectan a las personas.
Ejemplo
Un banco niega un crédito por medio de IA y el cliente no tiene claro por qué, ni a quién reclamarle. Esto puede generar frustración e indefensión.
Impacto
Desafía las teorías sobre la responsabilidad ética, ya que implica repartirla entre humanos, sistemas y organizaciones. Esto no está resuelto en la mayoría de los marcos jurídicos ni académicos.
Impacto en la práctica
Aumenta el riesgo de que personas sean afectadas por decisiones sin saber cómo actuar o defenderse. Esto es especialmente crítico en sectores sensibles como el financiero o el judicial.
Cuarto dilema ético – Transparencia y explicación de los algoritmos
Muchos sistemas de IA son tan complejos que ni los mismos expertos saben exactamente cómo llegaron a una conclusión. Esto genera desconfianza y dificulta que los ciudadanos exijan explicaciones.
Ejemplo
En Bogotá, entidades públicas empiezan a usar algoritmos para repartir subsidios, pero los beneficiarios no entienden los criterios usados, ni pueden impugnar decisiones.
Impacto
Tensiona las nociones de transparencia y rendición de cuentas. Si no podemos entender cómo funciona un sistema, ¿cómo podemos confiar o regularlo?
Impacto en la práctica
Los profesionales necesitan aprender a trabajar con IA sin perder el criterio humano. También deben saber explicar estas tecnologías a sus usuarios o beneficiarios.
Fuentes:
Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. Proceedings of the 2018 Conference on Fairness, Accountability and Transparency, 149–159. https://doi.org/10.1145/3287560.3287598
ECLAC (Comisión Económica para América Latina y el Caribe). (2021). Inteligencia artificial y políticas públicas en América Latina y el Caribe. Naciones Unidas. https://repositorio.cepal.org/handle/11362/47058
Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.8cd550d1
Fundación Karisma. (2020). IA, derechos humanos y decisiones automatizadas en Colombia. https://karisma.org.co
UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137
Sorry, there were no replies found.
Log in to reply.