Un año después, las perspectivas de la IA generativa en los servicios financieros

Un año después, las perspectivas de la IA generativa en los servicios financieros

Nodo de origen: 3020456

Hace poco más de un año ChatGPT lanzado. La emoción, la ansiedad y el optimismo asociados con la nueva IA muestran pocas señales de disminuir. En noviembre, el director ejecutivo de OpenAI, Sam Altman, fue destituido de su cargo, solo para regresar.
algunos días después. Rishi Sunak recibió a los líderes mundiales en el
Cumbre de seguridad de la IA del Reino Unido
, entrevistando a Elon Musk frente a una reunión de líderes mundiales y emprendedores tecnológicos. Detrás de escena, se rumorea que los investigadores de IA están cerca de lograr aún más avances. 

¿Qué significa todo esto para aquellas industrias que quieren beneficiarse de la IA pero no están seguras de los riesgos?

Alguna forma de aprendizaje automático (lo que solíamos llamar IA) existe desde hace un siglo. Desde principios de la década de 1990, esas herramientas han sido un elemento operativo clave de algunos procesos bancarios, gubernamentales y corporativos, aunque han estado notablemente ausentes en otros.

Entonces, ¿por qué la adopción desigual? Generalmente, eso se debe al riesgo. Las herramientas de inteligencia artificial son excelentes para tareas como la detección de fraudes, donde algoritmos bien establecidos y probados pueden hacer cosas que los analistas simplemente no pueden al revisar grandes cantidades de datos en milisegundos. eso se ha convertido
la norma, sobre todo porque no es imprescindible entender en detalle todas y cada una de las decisiones.

Otros procesos han sido más resistentes al cambio. Por lo general, esto no se debe a que un algoritmo no pueda funcionar mejor, sino más bien a que (en áreas como la calificación crediticia o la detección de lavado de dinero) la posibilidad de que se introduzcan sesgos inesperados es inaceptable.
Esto es particularmente grave en la calificación crediticia, cuando un préstamo o una hipoteca podrían rechazarse debido a características no financieras, incluidos prejuicios raciales.

Si bien la adopción de técnicas de IA más antiguas ha ido avanzando año tras año, la llegada de la IA generativa, caracterizada por ChatGPT, lo ha cambiado todo. El potencial de los nuevos modelos (tanto buenos como malos) es enorme y los comentarios se han dividido en consecuencia.
Lo que está claro es que ninguna organización quiere perderse las ventajas. A pesar de que se habla de riesgos con los modelos Generative y Frontier, 2023 ha estado lleno de entusiasmo por la revolución que se avecina.

Dos objetivos

Un caso de uso principal de la IA en el ámbito de los delitos financieros es detectar y prevenir actividades fraudulentas y delictivas. Los esfuerzos se concentran generalmente en torno a dos objetivos similares pero diferentes. Estos son 1) frustrar la actividad fraudulenta: detenerlo o
su amigo o familiar sea defraudado – y 2) adherirse a las pautas regulatorias existentes para apoyar la lucha contra el lavado de dinero (AML) y combatir el financiamiento del terrorismo (CFT).

Históricamente, las implementaciones de IA en AML y CFT han enfrentado preocupaciones sobre la posibilidad de pasar por alto actividades críticas en comparación con los métodos tradicionales basados ​​en reglas. Eso ha cambiado en los últimos 5 a 10 años, y los reguladores han iniciado un cambio fomentando la innovación.
para ayudar con los casos ALD y CFT, declarando que los innovadores serán juzgados por sus resultados generales, no por algunas alertas perdidas.

Sin embargo, a pesar del uso de modelos de aprendizaje automático en la prevención del fraude durante las últimas décadas, la adopción en ALD/CFT ha sido mucho más lenta y prevalecen los titulares y las predicciones sobre las acciones reales. Es probable que la llegada de la IA generativa cambie
esa ecuación dramáticamente.

Un punto brillante para el cumplimiento de la IA en los últimos cinco años ha sido la detección de clientes y contrapartes, particularmente cuando se trata de las grandes cantidades de datos involucrados en la detección de medios adversos (también conocidos como noticias negativas) de alta calidad donde las organizaciones
Busque las primeras señales de riesgo en los medios de comunicación para protegerse de posibles problemas.

La naturaleza del análisis de gran volumen de miles de millones de documentos no estructurados ha significado que las ventajas del aprendizaje automático y la inteligencia artificial superen con creces los riesgos y permitan a las organizaciones realizar comprobaciones que simplemente no serían posibles.
de otra manera.

Ahora los bancos y otras organizaciones quieren dar un paso más. A medida que los modelos de Generación de IA comienzan a acercarse a la AGI (Inteligencia General Artificial), donde pueden superar rutinariamente a los analistas humanos, la pregunta es cuándo, y no si, podrán usar la tecnología para
apoyar mejor las decisiones y potencialmente incluso tomar decisiones unilateralmente.

Seguridad de la IA en cumplimiento

La Cumbre de Seguridad de la IA de 2023 fue un hito importante al reconocer la importancia de la IA. Como resultado de la Cumbre, 28 países firmaron una declaración para continuar las reuniones para abordar los riesgos de la IA. El acto dio paso a la inauguración de la

Instituto de seguridad de IA
, lo que contribuirá a futuras investigaciones y colaboraciones para garantizar su seguridad.

Aunque tener un enfoque internacional en la conversación sobre IA tiene sus ventajas, los modelos de transformadores GPT fueron las principales áreas de enfoque durante la Cumbre. Esto plantea el riesgo de simplificar demasiado o confundir el espectro más amplio de la IA para personas no acostumbradas.

La IA no es solo generativa y las diferentes tecnologías ofrecen una amplia gama de características diferentes. Por ejemplo, si bien la forma en que funciona la IA generativa es casi completamente opaca o “caja negra”, gran parte de la IA heredada puede mostrar las razones de su
decisiones.

Si no queremos retroceder con el pánico de la IA, los reguladores y otros deben comprender la complejidad. Los bancos, las agencias gubernamentales y las empresas globales deben adoptar un enfoque reflexivo en la utilización de la IA. Deben enfatizar su adecuada seguridad, cuidado,
y uso explicable cuando se aprovecha dentro y fuera de los marcos de cumplimiento.

El camino por delante

El panorama del cumplimiento exige una revisión de los estándares para el uso responsable de la IA. Es esencial establecer mejores prácticas y objetivos claros para ayudar a que las organizaciones se alejen de soluciones de IA ensambladas apresuradamente que comprometen la precisión. Precisión, confiabilidad,
y la innovación son igualmente importantes para mitigar la mentira o la posible desinformación.

Dentro del sector bancario, la IA se está utilizando para apoyar a los analistas de cumplimiento que ya luchan con limitaciones de tiempo y crecientes responsabilidades regulatorias. La IA puede ayudar significativamente a los equipos al automatizar tareas mundanas, aumentar los procesos de toma de decisiones,
y mejorar la detección del fraude.

El Reino Unido puede y debe beneficiarse de las últimas oportunidades. Deberíamos cultivar un ecosistema de innovación que sea receptivo a la innovación en IA en fintech, regtech y más. Claridad del gobierno y líderes de opinión sobre la IA adaptada a implementaciones prácticas
en la industria es clave. También debemos estar abiertos a dar la bienvenida a nuevos graduados del creciente grupo global de talentos en IA para fortalecer la posición del país como pionero en soluciones impulsadas por IA e integrarlas sin problemas. En medio del cambio de la industria, priorizar y respaldar
El despliegue responsable de la IA es crucial para la exitosa batalla en curso contra todos los aspectos de los delitos financieros.

Sello de tiempo:

Mas de fintextra