-
Dilemas éticos asociados al uso de la IA en la economía
La IA es una herramienta que permite obtener información sobre diferentes temas en tiempo real y de manera inmediata, generando sustento teórico y práctico para la toma de decisiones en cada uno de los campos del conocimiento. Sin embargo, al ser una interacción entre una maquina y el ser humano pueden existir dilemas en cuanto a lo ético para generar respuestas objetivas a diferentes problemas o circunstancias y cumplir los objetivos.
En este caso es importante señalar algunos de los dilemas éticos que tienen directa relación con el rol del economista y el cumplimiento de su papel en la formulación de políticas públicas diferenciales.
· Responsabilidad, toma de decisiones y rendición de cuentas: La IA se alimenta de todo el contenido de internet, asociado a millones de páginas y de acuerdo a las PROMT dados por el usuario, realiza las búsquedas para generar respuestas que en la mayoría de los casos se desconocen los responsables del contenido, ya que las bibliografías generadas pueden no ser correctas; por lo tanto se pueden incurrir en errores al generar respuestas basadas en contenido que no es real o por otro lado, se pueden utilizar postulados académicos desconociendo los derechos de autor.
· Sesgos y Equidad: Los sistemas de IA por lo general pueden tener sesgos relacionados con la información con la que son entrenados. Por lo tanto, es fundamental garantizar la equidad y la no discriminación en los resultados de la IA. Los desarrolladores y usuarios deben ser responsables de identificar y minimizar estos sesgos.
· Desigualdad digital: La IA tiene costos considerables en el momento de acceder a ciertos procesos que solo pueden ser cubiertos por personas o empresas con capacidad de pagar membresías, las cuales permiten automatizar distintos procesos que aumentan la productividad en las empresas y eliminar ciertas actividades y transformando roles en la empresa.
· Privacidad y control de datos: Una consecuencia de este rápido desarrollo es que la información es cada vez un bien más valioso. La información personal de millones de personas de todo el mundo se ha convertido en un bien comercializable, con aplicaciones cada vez más importantes para las empresas. Muchas empresas han aprovechado rápidamente el análisis de datos para mejorar sus actividades perfilando con mayor precisión a sus clientes.
Con el desarrollo de las técnicas de análisis masivo de datos y la inversión en inteligencia artificial por parte de las empresas, estas bases de datos tienen más versatilidad que nunca. El desarrollo de las redes sociales y el comercio online han ayudado a generar registros sobre las acciones y opiniones de billones de personas en el planeta. Todos estos usuarios de servicios online en el mundo ceden su información personal a aquellas empresas que proveen los servicios. En la mayoría de las ocasiones los usuarios no saben qué se va a hacer con esa información, y las consecuencias que puede tener.
· Necesidad de Supervisión Humana: A pesar de los avances en la IA, muchos expertos argumentan que la supervisión humana es esencial para mitigar los riesgos asociados con la toma de decisiones automatizada. La combinación de la capacidad analítica de la IA con la empatía y el juicio humano puede resultar en decisiones más equitativas y justas. En conclusión, mientras que la IA ofrece oportunidades significativas para mejorar la eficiencia y la precisión en la toma de decisiones, también plantea desafíos éticos y sociales. La necesidad de abordar el sesgo algorítmico, garantizar la transparencia y proteger la privacidad se vuelve crucial para aprovechar los beneficios de la IA de manera ética y responsable. La importancia de la supervisión de un economista experto sobre la respuesta a un problema de algún actor o territorio debe ser estudiada y aprobada, teniendo como base la experiencia y la actualización de variables que pueden variar en el tiempo.
· Responsabilidad y moral de la inteligencia artificial: Un punto importante en la ética de la inteligencia artificial es el de la moralidad. Un sistema de inteligencia artificial no es capaz de comprender la moralidad de la misma forma que los humanos. Los sistemas de inteligencia artificial no tienen normas morales internas, sino que las reciben de sus desarrolladores. De la misma forma en que los prejuicios pueden heredarse de los desarrolladores, las normas que rigen la conducta de estos sistemas se basan en las de sus creadores.
Para este caso puede ocurrir que el desarrollador tenga algún interés económico, político o social para generar respuestas a ciertas situaciones, por lo tanto desarrolla algoritmos que permitan coincidir los pensamientos a una posible solución que pueda no ser lo que se está buscando por parte de la comunidad en el mejoramiento de la calidad de vida
<w:sdt sdtdocpart=”t” docparttype=”Bibliographies” docpartunique=”t”>Bibliografía<w:sdtpr></w:sdtpr><w:sdt bibliography=”t”>
Valencia, A. (2021). La Inteligencia Artificial y la empresa: dilemas éticos generados por su aplicación en un futuro automatizado. Madrid: COMILLAS.<w:sdtpr></w:sdtpr>
Lopez, T. (26 de Enero de 2024). ¿IMPACTA LA INTELIGENCIA ARTIFICIAL EN LAS DECISIONES SOBRE PERSONAS? Obtenido de Universidad de Medellín: https://derecho.udemedellin.edu.co/impacta-la-inteligencia-artificial-en-las-decisiones-sobre-personas/
</w:sdt></w:sdt>
Log in to reply.