La urgencia de abordar la discriminación por IA: transparencia, rendición de cuentas y cronogramas regulatorios

La urgencia de abordar la discriminación por IA: transparencia, rendición de cuentas y cronogramas regulatorios

Nodo de origen: 2747320

La inteligencia artificial (IA) ha revolucionado diversas industrias, ofreciendo numerosos beneficios y oportunidades. Sin embargo, han surgido preocupaciones sobre la posibilidad de que la IA perpetúe la discriminación y los prejuicios. Este artículo explora el tema de la discriminación por IA y arroja luz sobre los desafíos de identificar y abordar los sesgos integrados en los sistemas de IA. Los expertos de la industria expresan dudas sobre las implicaciones morales y éticas de la IA, citando preocupaciones sobre la desinformación, los sesgos en los algoritmos y la generación de contenido engañoso. A medida que se intensifican los debates en torno a la IA, existe un creciente llamado a una regulación significativa para garantizar la transparencia, la rendición de cuentas y la protección de los derechos fundamentales.

Desafíos para las industrias financieras con IA

Según Nabil Manji, director de criptografía y Web3 en Worldpay by FIS, la eficacia de los productos de IA depende en gran medida de la calidad del material fuente utilizado para la formación. En una entrevista con CNBC, Manji explicó que dos factores principales contribuyen al rendimiento de la IA: los datos a los que tiene acceso y las capacidades del modelo de lenguaje grande.

Para ilustrar la importancia de los datos, Manji mencionó que empresas como Reddit han declarado públicamente restricciones a la extracción de datos, exigiendo el pago por el acceso. En el sector de servicios financieros, destacó el desafío de los sistemas de datos fragmentados en varios idiomas y formatos. Esta falta de consolidación y armonización limita la eficacia de los productos impulsados ​​por la IA, especialmente en comparación con industrias con infraestructura de datos estandarizada y modernizada.

Según Manji, la utilización de blockchain o tecnología de contabilidad distribuida puede ofrecer una solución potencial para abordar este problema. Este enfoque innovador puede proporcionar una mayor transparencia de los datos fragmentados almacenados dentro de los intrincados sistemas de los bancos convencionales. Sin embargo, reconoció que la naturaleza altamente regulada y de lento movimiento de los bancos podría impedir su capacidad para adoptar rápidamente nuevas herramientas de inteligencia artificial, a diferencia de las empresas de tecnología más ágiles como Microsoft y Google, que han estado a la vanguardia del impulso de la innovación durante los últimos años. décadas.

Teniendo en cuenta estos factores, resulta evidente que la industria financiera enfrenta desafíos únicos al aprovechar la IA debido a las complejidades de la integración de datos y la naturaleza inherente del sector bancario.

Según Rumman Chowdhury, exjefe de ética, transparencia y responsabilidad del aprendizaje automático en Twitter, los préstamos son un ejemplo notable de cómo el sesgo en los sistemas de inteligencia artificial puede afectar negativamente a las comunidades marginadas. En su intervención en una mesa redonda celebrada en Ámsterdam, Chowdhury destacó la práctica histórica de la “línea roja” en Chicago durante la década de 1930. La línea roja implicó negar préstamos a vecindarios predominantemente afroamericanos basándose en la demografía racial.

Chowdhury explicó que aunque los algoritmos modernos pueden no incluir explícitamente la raza como un dato, los sesgos aún pueden codificarse implícitamente. Al desarrollar algoritmos para evaluar el riesgo de los distritos y las personas con fines crediticios, los datos históricos que contienen sesgos pueden perpetuar la discriminación sin darse cuenta.

Angle Bush, la visionaria detrás de Black Women in Artificial Intelligence, destacó la importancia de reconocer los peligros asociados con la reproducción de sesgos incrustados en datos históricos al emplear sistemas de inteligencia artificial para tomar determinaciones de aprobación de préstamos. Esta práctica puede llevar al rechazo automático de solicitudes de préstamos de comunidades marginadas, perpetuando así las desigualdades raciales o de género.

Frost Li, un desarrollador experimentado de IA, señaló los desafíos de la personalización en Integración de IA. La selección de "características principales" para entrenar modelos de IA a veces puede implicar factores no relacionados que pueden conducir a resultados sesgados. Li proporcionó un ejemplo de cómo las nuevas empresas de tecnología financiera dirigidas a extranjeros podrían enfrentar diferentes criterios de evaluación crediticia en comparación con los bancos locales, que están más familiarizados con las escuelas y comunidades locales.

Niklas Guske, director de operaciones de Taktile, una startup especializada en automatizar la toma de decisiones para fintechs, aclaró que la IA generativa no se suele utilizar para crear calificaciones crediticias o calificaciones de riesgo de los consumidores. Por el contrario, su fortaleza radica en el preprocesamiento de datos no estructurados, como archivos de texto, para mejorar la calidad de los datos para los modelos de suscripción convencionales.

En resumen, el uso de la IA en los préstamos y los servicios financieros genera preocupaciones sobre el sesgo y la discriminación. Los sesgos históricos incorporados en los datos y la selección de características irrelevantes durante el entrenamiento de la IA pueden conducir a resultados injustos. Es fundamental que los bancos y las instituciones financieras reconozcan y aborden estos problemas para evitar la perpetuación inadvertida de la discriminación al implementar soluciones de IA.

Prueba de discriminación por IA

Demostrar la discriminación basada en la IA puede ser un desafío, como lo ponen de relieve ejemplos como el caso de Apple y Goldman Sachs. El Departamento de Servicios Financieros del Estado de Nueva York desestimó las acusaciones de imponer límites más bajos a la Apple Card para las mujeres, citando una falta de pruebas que lo fundamenten.

Kim Smouter, directora de la Red Europea Contra el Racismo, señala que el despliegue masivo de la IA genera opacidad en los procesos de toma de decisiones, lo que dificulta que las personas identifiquen y aborden la discriminación.

Smouter explica que las personas suelen tener un conocimiento limitado de cómo funcionan los sistemas de IA, lo que dificulta la detección de casos de discriminación o sesgos sistémicos. Se vuelve aún más complejo cuando la discriminación es parte de un problema más amplio que afecta a varias personas. Smouter hace referencia al escándalo holandés de bienestar infantil, donde un gran número de solicitudes de prestaciones fueron etiquetadas erróneamente como fraudulentas debido a prejuicios institucionales. Descubrir tales disfunciones es un desafío, y obtener reparación puede ser difícil y llevar mucho tiempo, lo que lleva a daños importantes y a veces irreversibles.

Estos ejemplos ilustran las dificultades inherentes a la hora de fundamentar la discriminación basada en la IA y obtener reparaciones cuando se produce dicha discriminación. La complejidad de los sistemas de inteligencia artificial y la falta de transparencia en los procesos de toma de decisiones pueden dificultar que las personas reconozcan y aborden casos de discriminación de manera efectiva.

Según Chowdhury, existe una necesidad apremiante de que un organismo regulador global similar a las Naciones Unidas aborde los riesgos asociados con la IA. Si bien la IA ha mostrado una innovación notable, los tecnólogos y especialistas en ética han planteado preocupaciones con respecto a sus implicaciones morales y éticas. Estas preocupaciones abarcan cuestiones como la desinformación, los prejuicios raciales y de género incorporados en los algoritmos de IA y la generación de contenido engañoso mediante herramientas como ChatGPT.

Chowdhury expresa su preocupación por entrar en un mundo de posverdad donde la información en línea, incluidos texto, vídeo y audio, deja de ser confiable debido a la IA generativa. Esto plantea preguntas sobre cómo podemos garantizar la integridad de la información y cómo podemos confiar en ella para tomar decisiones informadas. Con la Ley de IA de la Unión Europea como ejemplo, una regulación significativa de la IA es crucial en este momento. Sin embargo, existen preocupaciones sobre el largo plazo que se necesita para que las propuestas regulatorias entren en vigor, lo que podría retrasar las acciones necesarias.

Smouter enfatiza la necesidad de una mayor transparencia y responsabilidad en los algoritmos de IA. Esto incluye hacer que los algoritmos sean más comprensibles para los no expertos, realizar pruebas y publicar resultados, establecer procesos de quejas independientes, realizar auditorías e informes periódicos e involucrar a comunidades racializadas en el diseño y despliegue de tecnología. Se prevé que la aplicación de la Ley de IA, que adopta una perspectiva de derechos fundamentales e introduce conceptos como la reparación, comenzará en aproximadamente dos años. Reducir este cronograma sería ventajoso para defender la transparencia y la rendición de cuentas como aspectos integrales de la innovación.

Sello de tiempo:

Mas de Noticias de Forex ahora