Um ano depois, as perspectivas para IA generativa em FS

Um ano depois, as perspectivas para IA generativa em FS

Nó Fonte: 3020456

Há pouco mais de um ano, ChatGPT lançado. A excitação, a ansiedade e o otimismo associados à nova IA mostram poucos sinais de diminuir. Em novembro, o CEO da OpenAI, Sam Altman, foi destituído de seu cargo, apenas para retornar
alguns dias depois. Rishi Sunak recebeu líderes mundiais no
Cúpula de Segurança de IA do Reino Unido
, entrevistando Elon Musk em encontro de líderes mundiais e empreendedores de tecnologia. Nos bastidores, há rumores de que os pesquisadores de IA estão próximos de ainda mais avanços. 

O que tudo isso significa para as indústrias que desejam se beneficiar da IA, mas não têm certeza dos riscos?

Alguma forma de aprendizado de máquina – o que costumávamos chamar de IA – existe há um século. Desde o início da década de 1990, essas ferramentas têm sido um elemento operacional fundamental de alguns processos bancários, governamentais e empresariais, embora estejam notavelmente ausentes de outros.

Então, por que a adoção desigual? Geralmente, isso é uma questão de risco. As ferramentas de IA são ótimas para tarefas como detecção de fraudes, onde algoritmos bem estabelecidos e testados podem fazer coisas que os analistas simplesmente não conseguem, revisando vastas faixas de dados em milissegundos. Isso se tornou
a norma, especialmente porque não é essencial compreender detalhadamente cada decisão.

Outros processos têm sido mais resistentes à mudança. Normalmente, isso não acontece porque um algoritmo não poderia fazer melhor, mas sim porque – em áreas como pontuação de crédito ou detecção de lavagem de dinheiro – o potencial de vieses inesperados surgirem é inaceitável.
Isto é particularmente grave na pontuação de crédito quando um empréstimo ou hipoteca pode ser recusado devido a características não financeiras – incluindo preconceitos raciais.

Embora a adoção de técnicas de IA mais antigas tenha progredido ano após ano, a chegada da IA ​​Generativa, caracterizada pelo ChatGPT, mudou tudo. O potencial para os novos modelos – bons e maus – é enorme e os comentários dividiram-se em conformidade.
O que está claro é que nenhuma organização quer perder o lado positivo. Apesar de se falar sobre os riscos dos modelos Generativo e Fronteira, 2023 tem sido repleto de entusiasmo sobre a revolução que se avizinha.

Dois objetivos

Um caso de uso principal da IA ​​no espaço do crime financeiro é detectar e prevenir atividades fraudulentas e criminosas. Os esforços concentram-se geralmente em torno de dois objectivos semelhantes, mas diferentes. Estes são 1) impedir atividades fraudulentas – impedir você ou
impedir que seu amigo ou parente seja fraudado – e 2) aderir às diretrizes regulatórias existentes para apoiar o combate à lavagem de dinheiro (AML) e ao combate ao financiamento do terrorismo (CFT).

Historicamente, as implantações de IA na LBC e no CFT têm enfrentado preocupações sobre a possibilidade de negligenciar atividades críticas em comparação com os métodos tradicionais baseados em regras. Isso mudou nos últimos 5 a 10 anos, com os reguladores a iniciarem uma mudança, incentivando a inovação
para ajudar em casos de LBC e CFT – declarando que os inovadores serão julgados pelos seus resultados globais e não por alguns alertas perdidos.

No entanto, apesar da utilização de modelos de aprendizagem automática na prevenção de fraudes nas últimas décadas, a adoção em matéria de LBC/CFT tem sido muito mais lenta, com uma prevalência de manchetes e predicações sobre a ação real. O advento da IA ​​generativa provavelmente mudará
essa equação dramaticamente.

Um ponto positivo para a conformidade da IA ​​nos últimos 5 anos tem sido a triagem de clientes e contrapartes, especialmente quando se trata das grandes quantidades de dados envolvidos na triagem de alta qualidade da mídia adversa (também conhecida como notícias negativas), onde as organizações
procurem os primeiros sinais de risco nos meios de comunicação para se protegerem de possíveis problemas.

A natureza da triagem de alto volume contra bilhões de documentos não estruturados significa que as vantagens do aprendizado de máquina e da inteligência artificial superam em muito os riscos e permitem que as organizações realizem verificações que simplesmente não seriam possíveis
de outra forma.

Agora, os bancos e outras organizações querem avançar um pouco mais. À medida que os modelos da Geração AI começam a se aproximar da AGI (Inteligência Artificial Geral), onde podem rotineiramente superar os analistas humanos, a questão é quando, e não se, eles podem usar a tecnologia para
apoiar melhor as decisões e potencialmente até tomar as decisões unilateralmente.

Segurança de IA em conformidade

A Cimeira de Segurança da IA ​​de 2023 foi um marco significativo no reconhecimento da importância da IA. A Cimeira resultou na assinatura de uma declaração por 28 países para continuar as reuniões para abordar os riscos da IA. O evento levou à inauguração do

Instituto de Segurança de IA
, o que contribuirá para pesquisas e colaborações futuras para garantir sua segurança.

Embora haja vantagens em ter um foco internacional na conversa sobre IA, os modelos de transformadores GPT foram as principais áreas de foco durante a Cúpula. Isto representa um risco de simplificação excessiva ou confusão do espectro mais amplo da IA ​​para indivíduos não habituados.

A IA não é apenas generativa e diferentes tecnologias fornecem uma enorme variedade de características diferentes. Por exemplo, embora a forma como a IA Generativa funciona seja quase totalmente opaca ou “caixa preta”, grande parte da IA ​​legada pode mostrar as razões da sua
decisões.

Se não quisermos retroceder com o pânico da IA, os reguladores e outros precisam compreender a complexidade. Os bancos, as agências governamentais e as empresas globais devem exercer uma abordagem ponderada à utilização da IA. Eles devem enfatizar seu uso adequado, seguro, cuidadoso e
e uso explicável quando aproveitado dentro e fora das estruturas de conformidade.

A estrada adiante

O cenário de conformidade exige uma revisão dos padrões para o uso responsável da IA. É essencial estabelecer melhores práticas e objetivos claros para ajudar a afastar as organizações de soluções de IA montadas às pressas que comprometem a precisão. Precisão, confiabilidade,
e a inovação são igualmente importantes para mitigar a fabricação ou a potencial desinformação.

No setor bancário, a IA está a ser utilizada para apoiar analistas de conformidade que já enfrentam restrições de tempo e responsabilidades regulamentares crescentes. A IA pode ajudar significativamente as equipes, automatizando tarefas rotineiras, aumentando os processos de tomada de decisão,
e melhorar a detecção de fraudes.

O Reino Unido pode e deve beneficiar das oportunidades mais recentes. Devemos cultivar um ecossistema de inovação receptivo à inovação em IA em fintech, regtech e muito mais. Clareza do governo e dos líderes de pensamento sobre IA adaptada para implementações práticas
na indústria é fundamental. Devemos também estar abertos a acolher novos licenciados provenientes do crescente conjunto global de talentos em IA, para fortalecer a posição do país em soluções pioneiras baseadas em IA e integrá-las perfeitamente. Em meio às mudanças do setor, priorizando e apoiando
A implantação responsável da IA ​​é crucial para o sucesso da batalha contínua contra todos os aspectos do crime financeiro.

Carimbo de hora:

Mais de Fintextra