Explicabilidad de datos: la contraparte de la explicabilidad de modelos - DATAVERSITY

Explicabilidad de datos: la contraparte de la explicabilidad de modelos – DATAVERSITY

Nodo de origen: 2658143

Hoy, AI y ML están en todas partes. 

Ya sea que todos jueguen con ChatGPT (el más rápido aplicación adoptada en la historia) o una propuesta reciente para agregar un cuarto color a los semáforos Para hacer que la transición a los autos sin conductor sea más segura, la IA ha saturado completamente nuestras vidas. Si bien la IA puede parecer más accesible que nunca, la complejidad de los modelos de IA ha aumentado exponencialmente. 

Los modelos de IA se dividen en las categorías principales de modelos de caja negra y caja blanca. Los modelos de caja negra toman una decisión sin explicación, mientras que los modelos de caja blanca entregan un resultado basado en las reglas que produjeron ese resultado. 

A medida que avanzamos hacia un mundo de métodos completos de aprendizaje profundo, la mayoría gravita en gran medida hacia los modelos de caja negra. 

¿El problema con ese enfoque? Los modelos de caja negra (como los integrados en la visión por computadora) no se pueden consumir directamente. Esto a menudo se conoce como el problema de la caja negra. Si bien volver a entrenar los modelos de caja negra puede dar a los usuarios un impulso, interpretar el modelo y comprender los resultados del modelo de caja negra se vuelve más difícil a medida que aumenta la complejidad de los modelos.

Una táctica para abordar el enigma de la caja negra es crear un modelo muy personalizado y explicable. 

Pero, esta no es la dirección en la que se mueve el mundo. 

Donde termina la explicabilidad del modelo, comienza la explicabilidad de los datos

La explicabilidad es fundamental porque mejora la transparencia, la precisión y la equidad del modelo y también puede mejorar la confianza en la IA. Si bien la explicabilidad del modelo es un enfoque convencional, ahora también surge la necesidad de un nuevo tipo: la explicabilidad de los datos.

La explicabilidad del modelo significa comprender el algoritmo para comprender el resultado final. Por ejemplo, si un modelo utilizado en una unidad de oncología está diseñado para evaluar si un crecimiento es canceroso, un proveedor de atención médica debe comprender las variables que crean los resultados finales. Si bien esto suena muy bien en teoría, la explicabilidad del modelo no aborda del todo el problema de la caja negra. 

A medida que los modelos se vuelven cada vez más complejos, la mayoría de los profesionales no podrán identificar las transformaciones e interpretar los cálculos en las capas internas del modelo. Dependen en gran medida de lo que pueden controlar, es decir, los conjuntos de datos de entrenamiento y lo que observan, los resultados y las medidas de predicción.  

Usemos el ejemplo de un científico de datos que crea un modelo para detectar fotos de tazas de café a partir de miles de fotografías, pero el modelo también comienza a detectar imágenes de vasos y jarras de cerveza, por ejemplo. Si bien las jarras de vidrio y cerveza pueden tener cierto parecido con las tazas de café, existen diferencias claras, como los materiales típicos, el color, la opacidad y las proporciones estructurales.

Para que el modelo detecte tazas de café con mayor confiabilidad, el científico de datos debe tener las respuestas a preguntas como:

  • ¿Qué imágenes recogió la modelo en lugar de tazas de café? 
  • ¿Fracasó el modelo porque no le proporcioné suficientes o los ejemplos correctos de tazas de café?
  • ¿Es ese modelo lo suficientemente bueno para lo que estaba tratando de lograr?
  • ¿Necesito cuestionar mi visión del modelo?
  • ¿Qué puedo determinar de manera concluyente que está causando que el modelo falle? 
  • ¿Debo generar nuevos supuestos del modelo?
  • ¿Acabo de elegir el modelo equivocado para empezar con el trabajo?

Como puede ver, es muy poco probable ofrecer este tipo de conocimiento, comprensión y explicabilidad del modelo cada vez que hay un problema.

La explicabilidad de los datos es comprender la datos se utiliza para el entrenamiento y la entrada en un modelo, con el fin de comprender cómo se alcanza el resultado final de un modelo. A medida que los algoritmos de ML se vuelvan cada vez más complejos pero más utilizados en todas las profesiones e industrias, la explicabilidad de los datos será la clave para desbloquear y resolver rápidamente problemas comunes, como nuestro ejemplo de la taza de café.

Aumento de la equidad y la transparencia en el aprendizaje automático con la explicación de los datos

La equidad dentro de los modelos de ML es un tema candente, que puede volverse aún más candente al aplicar la explicabilidad de los datos.

¿Por qué el zumbido? El sesgo en la IA puede crear resultados perjudiciales para un grupo. Uno de los casos mejor documentados de esto son los sesgos en los casos de uso racial. Veamos un ejemplo. 

Supongamos que una gran plataforma de consumidores conocida está contratando para un nuevo puesto de director de marketing. Para hacer frente a la gran cantidad de currículos que se reciben a diario, el departamento de recursos humanos implementa un modelo AI/ML para agilizar el proceso de solicitud y contratación mediante la selección de características clave o candidatos calificados. 

Para realizar esta tarea, y discernir y catalogar cada currículum, el modelo lo hará dando sentido a las características dominantes clave. Desafortunadamente, esto también significa que el modelo también podría captar implícitamente los sesgos raciales generales en los candidatos. ¿Cómo sucedería esto exactamente? Si un grupo de candidatos incluye un porcentaje menor de una raza, la máquina pensará que la organización prefiere miembros de una raza diferente o del conjunto de datos dominante.

Si un modelo falla, incluso si no es intencional, la falla debe ser abordada por la empresa. Esencialmente, quien implementó el modelo debe poder defender el uso del modelo.

En el caso de la contratación y el sesgo racial, el defensor tendría que ser capaz de explicar a un público enojado y/o a un grupo de aplicaciones el uso de conjuntos de datos para entrenar el modelo, los resultados exitosos iniciales del modelo basado en ese entrenamiento, el fracaso de el modelo para retomar un caso de esquina, y cómo esto condujo a un desequilibrio de datos no intencional que eventualmente creó un proceso de filtrado racialmente sesgado.

Para la mayoría, este tipo de detalles esenciales sobre la IA, conjuntos de datos desequilibrados, entrenamiento de modelos y fallas eventuales a través de la supervisión de datos no se recibirán bien ni se comprenderán. Pero, ¿qué se entenderá y se mantendrá de esta historia? La empresa XYZ practica prejuicios raciales en la contratación. 

La moraleja de este ejemplo demasiado común es que los errores no deseados de un modelo muy inteligente ocurren y pueden afectar negativamente a los humanos y tener consecuencias nefastas. 

Adónde nos lleva la explicabilidad de los datos

En lugar de traducir los resultados a través de la comprensión de un modelo de aprendizaje automático complejo, la explicabilidad de los datos utiliza los datos para explicar las predicciones y los errores.

La explicabilidad de los datos es entonces una combinación de ver los datos de prueba y comprender lo que un modelo recogerá de esos datos. Esto incluye comprender las muestras de datos subrepresentadas, las muestras sobrerrepresentadas (como en el ejemplo de contratación) y la transparencia de la detección de un modelo para comprender con precisión las predicciones y las predicciones erróneas.

Esta comprensión de la explicabilidad de los datos no solo mejorará la precisión y equidad del modelo, sino que también ayudará a que los modelos se aceleren más rápido.

A medida que seguimos confiando e incorporando programas complejos de IA y ML en nuestra vida diaria, resolver el problema de la caja negra se vuelve crítico, particularmente para fallas y predicciones erróneas. 

Si bien la explicabilidad del modelo siempre tendrá su lugar, requiere otra capa. Necesitamos la explicabilidad de los datos, ya que comprender lo que ve y lee un modelo nunca estará cubierto por la explicabilidad del modelo clásico.

Sello de tiempo:

Mas de VERSIDAD DE DATOS