La importancia de la diversidad en la IA no es una opinión, son matemáticas - IBM Blog

La importancia de la diversidad en la IA no es una opinión, son matemáticas – Blog de IBM

Nodo de origen: 3084301


La importancia de la diversidad en la IA no es una opinión, son matemáticas – Blog de IBM




Todos queremos ver nuestros valores humanos ideales reflejados en nuestras tecnologías. Esperamos que tecnologías como la inteligencia artificial (IA) no nos mientan, no discriminen y sean seguras para nosotros y nuestros hijos. Sin embargo, muchos creadores de IA se enfrentan actualmente a reacciones negativas por los sesgos, las imprecisiones y las prácticas de datos problemáticas que quedan expuestas en sus modelos. Estos problemas requieren más que una solución técnica, algorítmica o basada en inteligencia artificial. En realidad, se requiere un enfoque sociotécnico holístico.

Las matemáticas demuestran una verdad poderosa

Todos los modelos predictivos, incluida la IA, son más precisos cuando incorporan inteligencia y experiencia humanas diversas. Esto no es una opinión; tiene validez empírica. Considera el teorema de predicción de la diversidad. En pocas palabras, cuando la diversidad en un grupo es grande, el error de la multitud es pequeño, lo que respalda el concepto de "la sabiduría de la multitud". En un estudio influyente, se demostró que diversos grupos de solucionadores de problemas con baja capacidad pueden superar a los grupos de solucionadores de problemas con alta capacidad (Hong y página, 2004).

En lenguaje matemático: cuanto más amplia sea su variación, más estándar será su media. La ecuación se ve así:

A estudio adicional proporcionó más cálculos que refinan las definiciones estadísticas de una multitud sabia, incluida la ignorancia de las predicciones de otros miembros y la inclusión de aquellos con maximamente diferente predicciones o juicios (negativamente correlacionados). Entonces, no es sólo el volumen, sino la diversidad lo que mejora las predicciones. ¿Cómo podría afectar esta idea a la evaluación de los modelos de IA?

Modelo (in)precisión

Para citar un aforismo común, todos los modelos están equivocados. Esto es válido en las áreas de estadística, ciencia e inteligencia artificial. Los modelos creados con una falta de experiencia en el dominio pueden llevar a erróneo salidas.

Hoy en día, un pequeño grupo homogéneo de personas determina qué datos utilizar para entrenar modelos de IA generativa, que se extraen de fuentes que sobrerrepresentan en gran medida el inglés. "Para la mayoría de los más de 6,000 idiomas del mundo, los datos de texto disponibles no son suficientes para entrenar un modelo básico a gran escala" (de "Sobre las oportunidades y riesgos de los modelos de fundación”, Bommasani et al., 2022).

Además, los modelos en sí se crean a partir de arquitecturas limitadas: “Casi todos los modelos de PNL de última generación se adaptan ahora a partir de uno de los pocos modelos básicos, como BERT, RoBERTa, BART, T5, etc. Si bien esta homogeneización produce un apalancamiento extremadamente alto (cualquier mejora en los modelos básicos puede generar beneficios inmediatos en toda la PNL), también es un pasivo; Todos los sistemas de IA pueden heredar los mismos sesgos problemáticos de algunos modelos básicos (Bommasani et al.) "

Para que la IA generativa refleje mejor las diversas comunidades a las que sirve, se debe representar en los modelos una variedad mucho más amplia de datos de seres humanos.

La evaluación de la precisión del modelo va de la mano con la evaluación del sesgo. Debemos preguntarnos ¿cuál es la intención del modelo y para quién está optimizado? Consideremos, por ejemplo, quién se beneficia más de los algoritmos de recomendación de contenidos y de los algoritmos de los motores de búsqueda. Las partes interesadas pueden tener intereses y objetivos muy diferentes. Los algoritmos y modelos requieren objetivos o sustitutos del error de Bayes: el error mínimo que un modelo debe mejorar. Este representante suele ser una persona, como un experto en la materia con experiencia en el dominio.

Un desafío muy humano: evaluar el riesgo antes de la adquisición o el desarrollo del modelo

Las regulaciones y planes de acción emergentes sobre IA subrayan cada vez más la importancia de las formas algorítmicas de evaluación del impacto. El objetivo de estos formularios es capturar información crítica sobre los modelos de IA para que los equipos de gobierno puedan evaluar y abordar sus riesgos antes de implementarlos. Las preguntas típicas incluyen:

  • ¿Cuál es el caso de uso de su modelo?
  • ¿Cuáles son los riesgos de un impacto dispar?
  • ¿Cómo evalúa la equidad?
  • ¿Cómo haces que tu modelo sea explicable?

Aunque se diseñó con buenas intenciones, el problema es que la mayoría de los propietarios de modelos de IA no entienden cómo evaluar los riesgos para su caso de uso. Un estribillo común podría ser: "¿Cómo podría mi modelo ser injusto si no recopila información de identificación personal (PII)?" En consecuencia, los formularios rara vez se completan con la consideración necesaria para que los sistemas de gobernanza señalen con precisión los factores de riesgo.

Se subraya así el carácter sociotécnico de la solución. Al propietario de un modelo (un individuo) no se le puede dar simplemente una lista de casillas de verificación para evaluar si su caso de uso causará daño. En cambio, lo que se requiere es que grupos de personas con experiencias del mundo vivido muy diversas se reúnan en comunidades que ofrezcan seguridad psicológica para tener conversaciones difíciles sobre impactos dispares.

Acogiendo con satisfacción perspectivas más amplias para una IA confiable

IBM® cree en adoptar un enfoque de “cliente cero”, implementando las recomendaciones y sistemas que haría para sus propios clientes a través de consultoría y soluciones basadas en productos. Este enfoque se extiende a las prácticas éticas, razón por la cual IBM creó un Centro de excelencia de IA confiable (COE).

Como se explicó anteriormente, la diversidad de experiencias y habilidades es fundamental para evaluar adecuadamente los impactos de la IA. Pero la perspectiva de participar en un Centro de Excelencia podría resultar intimidante en una empresa repleta de innovadores, expertos e ingenieros distinguidos en IA, por lo que es necesario cultivar una comunidad de seguridad psicológica. IBM comunica esto claramente al decir: “¿Interesado en la IA? ¿Interesado en la ética de la IA? Tienes un asiento en esta mesa”.

El COE ofrece formación en ética de la IA a profesionales de todos los niveles. Se ofrecen programas de aprendizaje sincrónico (profesor y estudiantes en clase) y asincrónicos (autoguiados).

Pero es del COE aplicada capacitación que brinda a nuestros profesionales los conocimientos más profundos, mientras trabajan con equipos globales, diversos y multidisciplinarios en proyectos reales para comprender mejor el impacto dispar. También aprovechan los marcos de pensamiento de diseño que IBM Diseño para IA El grupo utiliza internamente y con los clientes para evaluar los efectos no deseados de los modelos de IA, teniendo en cuenta a aquellos que a menudo son marginados. (Ver el libro de Sylvia Duckworth Rueda de poder y privilegio para ver ejemplos de cómo las características personales se cruzan para privilegiar o marginar a las personas). IBM también donó muchos de los marcos a la comunidad de código abierto. Diseñar éticamente.

A continuación se muestran algunos de los informes que IBM ha publicado públicamente sobre estos proyectos:

Se requieren herramientas automatizadas de gobernanza del modelo de IA para obtener información importante sobre el rendimiento de su modelo de IA. Pero tenga en cuenta que lo óptimo es capturar el riesgo mucho antes de que su modelo se haya desarrollado y esté en producción. Al crear comunidades de profesionales diversos y multidisciplinarios que ofrecen un espacio seguro para que las personas tengan conversaciones difíciles sobre impactos dispares, puede comenzar su viaje para poner en práctica sus principios y desarrollar la IA de manera responsable.

En la práctica, cuando contrate profesionales de IA, considere que más del 70% del esfuerzo en la creación de modelos consiste en seleccionar los datos correctos. Quiere contratar personas que sepan cómo recopilar datos que sean representativos y que también se recopilen con consentimiento. También desea que haya personas que sepan trabajar en estrecha colaboración con expertos en el campo para asegurarse de que tienen el enfoque correcto. Es clave garantizar que estos profesionales tengan la inteligencia emocional para abordar el desafío de curar la IA de manera responsable con humildad y discernimiento. Debemos ser intencionales a la hora de aprender a reconocer cómo y cuándo los sistemas de IA pueden exacerbar la desigualdad en la misma medida que pueden aumentar la inteligencia humana.

Reinventa el funcionamiento de tu negocio con IA

¿Le resultó útil este artículo?

No


Más de Inteligencia artificial




Equilibrar la IA: hacer el bien y evitar el daño

5 min leerCuando era niño, mi padre siempre decía: "haz el bien". Cuando era niño, pensaba que era una gramática vergonzosa y lo corregía, insistiendo en que debería ser "hacerlo bien". Incluso mis hijos se burlan de mí cuando escuchan su consejo de “hacer el bien” y admito que le dejé pasar en el frente gramatical. En el caso de la inteligencia artificial (IA) responsable, las organizaciones deben priorizar la capacidad de evitar daños como enfoque central. Algunas organizaciones también pueden intentar utilizar...




Cómo las compañías de seguros trabajan con IBM para implementar soluciones generativas basadas en IA

7 min leerIBM trabaja con nuestros clientes de seguros a través de diferentes frentes, y los datos del IBM Institute for Business Value (IBV) identificaron tres imperativos clave que guían las decisiones de gestión de las aseguradoras: Adoptar la transformación digital para permitir que las aseguradoras ofrezcan nuevos productos, impulsar el crecimiento de los ingresos y mejorar la atención al cliente. experiencia. Mejore la productividad central (negocios y TI) mientras reduce los costos. Adopte la modernización incremental de aplicaciones y datos utilizando la nube híbrida segura y la IA. Las aseguradoras deben cumplir con los siguientes imperativos clave para facilitar la transformación de sus...




Liberar el poder de los chatbots: beneficios clave para empresas y clientes

6 min leerLos chatbots pueden ayudar a sus clientes y clientes potenciales a encontrar o ingresar información rápidamente respondiendo instantáneamente a solicitudes que utilizan entrada de audio, entrada de texto o una combinación de ambas, eliminando la necesidad de intervención humana o investigación manual. Los chatbots están en todas partes, brindando atención al cliente y ayudando a los empleados que usan parlantes inteligentes en casa, SMS, WhatsApp, Facebook Messenger, Slack y muchas otras aplicaciones. Los últimos chatbots de inteligencia artificial (IA), también conocidos como asistentes virtuales inteligentes o agentes virtuales, no sólo…




Únase a nosotros a la vanguardia de la IA para empresas: piense en 2024

<1 min leerQuiere utilizar la IA para acelerar la productividad y la innovación de su negocio. Es necesario ir más allá de la experimentación y ampliar la escala. Tienes que moverte rápido. Únase a nosotros en Boston para Think 2024, una experiencia única y atractiva que lo guiará en su viaje de IA para negocios, sin importar en qué parte del camino se encuentre. Desde desarrollar la preparación para la IA con un enfoque reflexivo de nube híbrida, hasta escalar la IA a través de funciones comerciales centrales y necesidades de la industria, hasta incorporar la IA en...

Boletines informativos de IBM

Obtenga nuestros boletines y actualizaciones de temas que brindan el liderazgo intelectual más reciente y conocimientos sobre tendencias emergentes.

Subscribirme Ahora

Más boletines

Sello de tiempo:

Mas de IoT de IBM