-
Dilemas éticos
<table border="1" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td width="123" valign="top">
Dilemas éticos
</td>
<td width="284" valign="top">
Ejemplos
</td>
<td width="182" valign="top">
Afectaciones
</td>
</tr>
<tr>
<td width="123" valign="top">
Transparencia
</td>
<td width="284" valign="top">
OpenAI publica
detalles sobre sus modelos, incluyendo descripciones sobre cómo se entrenan y
qué datos se utilizan. Esto ayuda a los usuarios a entender mejor el
funcionamiento de las herramientas como ChatGPT.
</td>
<td width="182" valign="top">
De parte de la IA se
espera que los datos que usa sean confiables y que la función de esta proteja
los datos del usuario.
</td>
</tr>
<tr>
<td width="123" valign="top">
Privacidad y Protección de Datos
</td>
<td width="284" valign="top">
GDPR (Reglamento
General de Protección de Datos) en la Unión Europea establece estrictas
normas sobre la recopilación y el uso de datos personales, exigiendo que las
empresas obtengan el consentimiento explícito de los usuarios antes de
procesar sus datos.
</td>
<td width="182" valign="top">
Que se vulnere la
información del usuario y se use para fines netamente comerciales o
maliciosos.
</td>
</tr>
<tr>
<td width="123" valign="top">
Equidad y No Discriminación
</td>
<td width="284" valign="top">
IBM ha trabajado en
el desarrollo de su herramienta de IA, IBM Watson, para reducir sesgos
raciales y de género. Esto incluye auditorías regulares de sus algoritmos
para garantizar que no discriminen en la contratación o la evaluación de
crédito.
</td>
<td width="182" valign="top">
Que algún resultado
genere una tendencia de discriminación ante el usuario o se marque reticencia
haca alguna religión, raza o creencia.
</td>
</tr>
<tr>
<td width="123" valign="top">
Responsabilidad
</td>
<td width="284" valign="top">
los sistemas de
justicia penal en algunas jurisdicciones, como California, se ha implementado
la supervisión humana en el uso de algoritmos que determinan la libertad bajo
fianza, asegurando que las decisiones se revisen por jueces antes de ser
aplicadas.
</td>
<td width="182" valign="top">
Resultados negativos
en la toma de decisiones.
</td>
</tr>
<tr>
<td width="123" valign="top">
Impacto
</td>
<td width="284" valign="top">
La organización
DataKind utiliza la IA para abordar problemas sociales, como el análisis de
datos para la salud pública. Sus proyectos se centran en cómo la IA puede
ayudar a mejorar las condiciones de vida de comunidades vulnerables.
</td>
<td width="182" valign="top">
Con el uso de la IA
o información suministrada por esta se cause daño a alguna persona o
comunidad.
</td>
</tr>
</tbody>
</table>
Sorry, there were no replies found.
Log in to reply.