21 Jun

Consejos para implementar una Inteligencia Artificial ética en la empresa

Share Button

La presencia cada vez más generalizada de Inteligencia Artificial (IA) en nuestra sociedad ha propiciado un debate sobre la relación que deben mantener los humanos con las máquinas capacitadas para identificar patrones de comportamiento a través de los datos y realizar predicciones basadas en probabilidades según las decisiones tomadas. Parece que la irrupción de la automatización nos ha hecho ser más conscientes de la necesidad de dotar a las nuevas tecnologías de valores y principios.

En este contexto, Cloudera, la empresa de la Enterprise Data Cloud, presenta algunas recomendaciones con el fin de conseguir implementar una Inteligencia Artificial ética en la empresa.

1. Apostar por la transparencia.

Actualmente, no existe una legislación de aplicación universal al respecto. Dicho esto, es importante que las organizaciones tengan claro cómo implementar su ML por una cuestión fundamental: generar confianza. Los sistemas opacos que no son fáciles de entender o no tienen claros los datos de los que informan las aplicaciones de aprendizaje automático pueden generar desconfianza.

Esto fue lo que ocurrió, cuando varios clientes de las tarjetas de Apple sospecharon que el algoritmo utilizado para otorgar cuánto crédito correspondía a cada cliente estaba tomando decisiones con sesgo de género. Si bien la tarjeta Apple (y, por extensión Goldman Sachs) fue aprobada más tarde por un regulador (el Departamento de Servicios Financieros del Estado de Nueva York) de la discriminación sistemática contra las mujeres, el daño a la reputación ya estaba hecho. Además, el regulador criticó “las deficiencias en el servicio al cliente y la transparencia” de la organización”. Por lo tanto, ser abierto y transparente sobre el funcionamiento del aprendizaje automático es crucial para su adopción y aceptación generalizadas.

2. Aumentar la inversión en formación.

A medida que la IA y el aprendizaje automático se vuelven cada vez más frecuentes, es fundamental que los empleados se capaciten y reciban la formación adecuada para trabajar con modelos y algoritmos. Esto es esencial para garantizar que las personas que toman decisiones basadas en predicciones de ML puedan hacerlo de manera informada, teniendo en cuenta las limitaciones de la aplicación y el contexto situacional más amplio. Incluso una aplicación de aprendizaje automático bien diseñada puede contribuir a resultados injustos si sus usuarios humanos desconocen sus limitaciones y la utilizan de forma incorrecta.

3. Responder a la regulación entrante y a las decisiones ejecutivas.

Las organizaciones necesitarán desarrollar e implementar la IA de una manera que les permita responder a la regulación entrante. Por ejemplo, un regulador podría requerir que se eliminen todos los modelos de aprendizaje automático basados en datos «contaminados» (porque no se obtuvo el consentimiento adecuado). El caso Everalbum y el fallo de la FTC son un excelente ejemplo del impacto significativo de la regulación.

Por lo tanto, las empresas deben asegurarse de que su infraestructura admita el seguimiento del linaje de datos y el control de las versiones del modelo. Estas características permitirían a las empresas aislar conjuntos de datos particulares y la versión del modelo que se entrenó en ellos. Estas y otras características de MLOps también son útiles para fines de auditoría, algo en lo que insistirán muchos reguladores.

4. Hacia el Human in the loop.

La toma de decisiones automatizada conlleva riesgos. Reconocer y gestionar ese peligro es fundamental para generar confianza en las aplicaciones más amplias del aprendizaje automático y la inteligencia artificial. Es por eso que, aunque la IA puede automatizar las tareas que realizan los individuos, los humanos siempre deben ser los que tomen las decisiones.

Esto se debe a que el ser humano posee una comprensión más amplia y matizada del contexto en el que se aplican las decisiones de ML. El artículo 22 del RGPD consagra esta dinámica al permitir a los usuarios exigir una explicación de las decisiones tomadas únicamente en base a una predicción fundamentada en la probabilidad y derivada algorítmicamente.

5. Gobierno adecuado.

Establecer una supervisión y un buen gobierno es fundamental ya que los datos tienen un papel crucial en el desarrollo de una Inteligencia Artificial ética. Es necesario generar jerarquías de responsabilidad en la construcción de algoritmos complejos. El buen gobierno implica tener una mejor comprensión del contexto del dato y ayuda a quienes crean los modelos a tomar decisiones informadas sobre qué datos es apropiado utilizar para el desarrollo del modelo.

 

Fuente: https://www.computing.es/

 

Contacto: info@deimosestadistica.com Deimos Estadística SL B90375460 © 2013 - Todos los Derechos Reservados