XNUMX년 후, FS의 생성적 AI에 대한 전망

XNUMX년 후, FS의 생성적 AI에 대한 전망

소스 노드 : 3020456

XNUMX 년 전에 ChatGPT 출시되었습니다. 새로운 AI와 관련된 흥분, 불안, 낙관주의는 줄어들 기미가 거의 없습니다. 11월 OpenAI CEO 샘 알트만(Sam Altman)이 직위에서 해임되었다가 다시 복귀했습니다.
며칠 후. Rishi Sunak은 세계 지도자들을 초대했습니다.
영국 AI 안전 서밋
, 세계 지도자와 기술 기업가들이 모인 자리에서 Elon Musk를 인터뷰합니다. 그 이면에는 AI 연구자들이 훨씬 더 많은 혁신에 가까워졌다는 소문이 돌고 있습니다. 

AI의 혜택을 원하지만 위험을 확신하지 못하는 산업에 이는 무엇을 의미합니까?

우리가 AI라고 부르던 일종의 기계 학습 형태는 한 세기 동안 존재해 왔습니다. 1990년대 초부터 이러한 도구는 일부 은행, 정부 및 기업 프로세스의 핵심 운영 요소로 사용되었지만 다른 프로세스에서는 눈에 띄게 사용되지 않았습니다.

그렇다면 채택이 고르지 않은 이유는 무엇입니까? 일반적으로 위험이 따릅니다. AI 도구는 잘 정립되고 테스트된 알고리즘이 광범위한 데이터를 밀리초 단위로 검토하여 분석가가 할 수 없는 작업을 수행할 수 있는 사기 탐지와 같은 작업에 적합합니다. 그것은되었다
특히 모든 결정을 자세히 이해하는 것이 필수적인 것은 아니기 때문입니다.

다른 프로세스는 변경에 더 저항적이었습니다. 일반적으로 이는 알고리즘이 더 잘할 수 없기 때문이 아니라 신용 점수나 자금 세탁 탐지와 같은 영역에서 예상치 못한 편향이 발생할 가능성이 용납될 수 없기 때문입니다.
이는 인종적 편견을 포함한 비재정적 특성으로 인해 대출이나 모기지가 거부될 수 있는 경우 신용 점수에서 특히 심각합니다.

오래된 AI 기술의 채택이 해마다 진행되는 동안 ChatGPT를 특징으로 하는 생성적 AI의 등장으로 모든 것이 바뀌었습니다. 좋은 모델이든 나쁜 모델이든 새 모델의 잠재력은 엄청나며 이에 따라 논평도 나뉘었습니다.
분명한 것은 어떤 조직도 긍정적인 측면을 놓치고 싶어하지 않는다는 것입니다. Generative 및 Frontier 모델의 위험에 대한 이야기에도 불구하고 2023년은 앞으로 다가올 혁명에 대한 기대로 가득 차 있었습니다.

두 가지 목표

금융 범죄 분야에서 AI의 주요 사용 사례는 사기 및 범죄 활동을 탐지하고 예방하는 것입니다. 노력은 일반적으로 유사하지만 서로 다른 두 가지 목표에 집중됩니다. 이는 1) 사기 행위를 방지하는 것입니다 – 귀하를 막거나
친구나 친척이 사기를 당하는 것을 방지하고 2) 자금세탁방지(AML)를 지원하고 테러자금조달 방지(CFT)를 위한 기존 규제 지침을 준수합니다.

역사적으로 AML 및 CFT의 AI 배포는 기존 규칙 기반 방법에 비해 중요한 활동을 간과할 가능성이 있다는 우려에 직면해 있었습니다. 규제 당국이 혁신을 장려하여 변화를 시작하면서 지난 5~10년 동안 상황이 바뀌었습니다.
AML 및 CFT 사례를 지원하기 위해 혁신가는 일부 누락된 경고가 아닌 전반적인 결과에 따라 판단될 것이라고 선언합니다.

그러나 지난 수십 년 동안 사기 예방에 기계 학습 모델을 사용했음에도 불구하고 AML/CFT 채택은 실제 조치보다 헤드라인과 예측이 널리 퍼지면서 훨씬 느려졌습니다. 제너레이티브 AI(Generative AI)의 출현으로 변화가 일어날 것으로 보인다
그 방정식은 극적으로.

지난 5년 동안 규정 준수 측면에서 AI의 한 가지 밝은 점은 고객 및 상대방 스크리닝이었습니다. 특히 조직이 사용하는 고품질 불리한 미디어(일명 네거티브 뉴스) 스크리닝과 관련된 방대한 양의 데이터의 경우 더욱 그렇습니다.
잠재적인 문제로부터 자신을 보호하기 위해 뉴스 미디어에서 위험의 초기 징후를 찾으십시오.

수십억 개의 비정형 문서에 대한 대용량 검사의 특성은 기계 학습과 인공 지능의 이점이 위험보다 훨씬 더 크고 조직이 단순히 불가능했던 검사를 수행할 수 있음을 의미합니다.
그렇지 않으면.

이제 은행과 기타 조직은 한 단계 더 나아가기를 원합니다. Generation AI 모델이 일상적으로 인간 분석가보다 뛰어난 성능을 발휘할 수 있는 AGI(Artificial General Intelligence)에 접근하기 시작하면서 문제는 언제 이 기술을 사용할 수 있는지 여부가 아닙니다.
더 나은 결정을 지원하고 잠재적으로 일방적으로 결정을 내릴 수도 있습니다.

규정 준수에 따른 AI 안전

2023년 AI 안전 서밋은 AI의 중요성을 인식하는 중요한 이정표였습니다. 이번 정상회담에서는 28개국이 AI 위험을 해결하기 위한 회의를 계속하겠다는 선언문에 서명했습니다. 이번 행사는 총회 출범으로 이어졌다.

AI안전연구소
, 이는 안전성 확보를 위한 향후 연구와 협력에 기여할 것입니다.

AI 대화에 국제적인 초점을 맞추면 이점이 있지만 GPT 변환기 모델은 Summit 동안 주요 초점 영역이었습니다. 이는 익숙하지 않은 개인에게 더 넓은 AI 스펙트럼을 지나치게 단순화하거나 혼란스럽게 할 위험이 있습니다.

AI는 단순한 생성이 아니며 다양한 기술이 다양한 특성을 제공합니다. 예를 들어, Generative AI의 작동 방식은 거의 완전히 불투명하거나 "블랙박스"인 반면, 레거시 AI의 대부분은 그 이유를 보여줄 수 있습니다.
결정.

AI 패닉으로 인해 과거로 돌아가고 싶지 않다면 규제 기관과 다른 사람들은 복잡성을 이해해야 합니다. 은행, 정부 기관, 글로벌 기업은 AI 활용에 대해 신중한 접근 방식을 취해야 합니다. 적절한 안전, 주의, 주의를 강조해야 합니다.
규정 준수 프레임워크 내부 및 외부에서 활용 시 설명 가능한 사용이 가능합니다.

앞서가는 길

규정 준수 환경에서는 책임 있는 AI 사용에 대한 표준 검토가 필요합니다. 정확도를 떨어뜨리는 성급하게 조립된 AI 솔루션에서 조직을 벗어나게 하려면 모범 사례와 명확한 목표를 설정하는 것이 중요합니다. 정확성, 신뢰성,
조작이나 잠재적인 잘못된 정보를 완화하려면 혁신도 마찬가지로 중요합니다.

은행 부문 내에서 AI는 이미 시간 제약과 증가하는 규제 책임으로 어려움을 겪고 있는 규정 준수 분석가를 지원하는 데 사용되고 있습니다. AI는 일상적인 작업을 자동화하고 의사 결정 프로세스를 강화하며 팀에 큰 도움을 줄 수 있습니다.
사기 탐지 강화.

영국은 최신 기회로부터 이익을 얻을 수 있고 또 그래야 합니다. 우리는 핀테크, 레그테크 등 모든 분야에서 AI 혁신을 수용하는 혁신 생태계를 육성해야 합니다. 실제 구현에 맞춰진 AI에 대한 정부 및 사고 리더의 명확성
업계에서는 핵심입니다. 또한 우리는 AI 기반 솔루션을 개척하고 이를 원활하게 통합하는 데 있어 국가의 입지를 강화하기 위해 성장하는 AI 분야의 글로벌 인재 풀에서 새로운 졸업생을 환영해야 합니다. 업계 변화 속에서 우선순위화 및 지원
책임 있는 AI 배치는 금융 범죄의 모든 측면에 맞서 성공적으로 지속적인 전투를 벌이는 데 매우 중요합니다.

타임 스탬프 :

더보기 핀텍스라