AI 및 금융 범죄 예방: 은행에 균형 잡힌 접근 방식이 필요한 이유

Date:

AI는 은행에게 양면 동전입니다. 보다 효율적인 운영을 위한 많은 가능성을 열어주는 동시에 외부 및 내부 위험을 초래할 수도 있습니다.

금융 범죄자들은 ​​기술을 활용하여 딥페이크 동영상컴퓨터와 인간의 탐지를 통과하거나 이메일 사기 활동을 강화할 수 있는 음성 및 가짜 문서입니다. 최근 보고서에 따르면 미국에서만 생성적 AI로 인해 사기 손실이 연간 32% 증가해 2027년에는 400억 달러에 이를 것으로 예상됩니다. 딜로이트의 보고서.

그렇다면 은행의 대응은 금융 범죄 예방 전반에 걸쳐 AI를 활용하여 훨씬 더 나은 도구로 무장하는 것이어야 합니다. 실제로 금융 기관은 거래 모니터링, 의심스러운 활동 보고서 생성, 사기 탐지 자동화 등을 위한 금융 범죄 방지(AFC) 노력에 AI를 배포하기 시작했습니다. 이는 정확도를 높이면서 프로세스를 가속화할 수 있는 잠재력을 가지고 있습니다.

문제는 은행이 AI 구현과 인간 판단의 균형을 맞추지 못하는 경우입니다. 루프에 사람이 없으면 AI 채택은 규정 준수, 편견 및 새로운 위협에 대한 적응성에 영향을 미칠 수 있습니다.

우리는 금융 부문에서 AI 채택에 대한 신중한 하이브리드 접근 방식을 믿으며, 이는 계속해서 인간의 입력을 필요로 합니다.

규칙 기반 AFC 시스템과 AI 기반 AFC 시스템의 차이점

전통적으로 AFC, 특히 자금세탁방지(AML) 시스템은 규정에 따라 규정 준수팀이 정한 고정 규칙에 따라 운영되어 왔습니다. 예를 들어, 거래 모니터링의 경우 이러한 규칙은 거래 금액 임계값 또는 지리적 위험 요소와 같은 사전 정의된 특정 기준을 기반으로 거래에 플래그를 지정하기 위해 구현됩니다.

AI는 금융범죄 위험을 선별하는 새로운 방법을 제시한다. 기계 학습 모델을 사용하면 지속적으로 발전하는 일련의 데이터 세트를 기반으로 의심스러운 패턴을 탐지할 수 있습니다. 이 시스템은 거래, 기록 데이터, 고객 행동 및 상황별 데이터를 분석하여 의심스러운 모든 것을 모니터링하는 동시에 시간이 지남에 따라 학습하여 적응적이고 잠재적으로 더 효과적인 범죄 모니터링을 제공합니다.

그러나 규칙 기반 시스템은 예측 가능하고 쉽게 감사할 수 있는 반면, AI 기반 시스템은 불투명한 의사 결정 프로세스로 인해 복잡한 “블랙박스” 요소를 도입합니다. 너무 많은 요소가 관련되어 있다는 점을 고려할 때 특정 행동을 의심스러운 것으로 표시하는 AI 시스템의 추론을 추적하는 것은 더 어렵습니다. 이를 통해 AI가 오래된 기준을 기반으로 특정 결론에 도달하거나, 이를 즉시 감지하지 않고도 사실적으로 잘못된 통찰력을 제공할 수 있습니다. 또한 금융 기관의 규제 준수에 문제가 발생할 수도 있습니다.

가능한 규제 문제

금융 기관은 EU와 같은 엄격한 규제 표준을 준수해야 합니다. AMLD 그리고 미국의 은행비밀보호법이는 명확하고 추적 가능한 의사 결정을 요구합니다. AI 시스템, 특히 딥러닝 모델은 해석하기 어려울 수 있습니다.

AI를 채택하는 동안 책임을 보장하려면 은행에 신중한 계획, 철저한 테스트, 전문적인 규정 준수 프레임워크 및 인간 감독이 필요합니다. 예를 들어 인간은 표시된 거래의 이유를 해석하여 규제 기관이 설명하고 방어할 수 있도록 함으로써 자동화된 결정을 검증할 수 있습니다.

금융기관도 사용 압력을 받고 있다. 설명 가능한 AI (XAI) 도구를 사용하면 규제 기관과 감사자가 AI 기반 결정을 이해할 수 있습니다. XAI는 인간이 AI 시스템의 출력과 기본 의사 결정을 이해할 수 있도록 하는 프로세스입니다.

총체적인 관점을 위해서는 인간의 판단이 필요하다

AI를 채택해도 자동화 시스템에 안주할 수는 없습니다. 인간 분석가는 AI가 부족한 상황과 판단을 가져와 복잡하거나 모호한 사례에서 미묘한 의사 결정을 내릴 수 있으며 이는 AFC 조사에 필수적입니다.

AI 의존의 위험 중에는 오류(예: 거짓 긍정, 거짓 부정) 및 편견 가능성이 있습니다. 모델이 잘 조정되지 않았거나 편향된 데이터에 대해 훈련된 경우 AI는 거짓 긍정이 발생하기 쉽습니다. 인간도 편견에 취약하지만 AI의 추가 위험은 시스템 내에서 편견을 식별하기 어려울 수 있다는 것입니다.

또한 AI 모델은 제공된 데이터를 기반으로 실행됩니다. 즉, 역사적 추세를 벗어나거나 실제 통찰력을 기반으로 새롭거나 희귀한 의심스러운 패턴을 포착하지 못할 수도 있습니다. 규칙 기반 시스템을 AI로 완전히 대체하면 AFC 모니터링에 사각지대가 생길 수 있습니다.

편견, 모호함, 참신함의 경우 AFC에는 AI가 제공할 수 없는 통찰력이 필요합니다. 동시에 프로세스에서 인간을 제거한다면 금융 범죄의 패턴을 이해하고 패턴을 파악하며 새로운 추세를 식별하는 팀의 능력이 심각하게 저하될 수 있습니다. 결과적으로 자동화된 시스템을 최신 상태로 유지하는 것이 더 어려워질 수 있습니다.

하이브리드 접근 방식: 규칙 기반 및 AI 기반 AFC 결합

금융 기관은 규칙 기반 접근 방식과 AI 도구를 결합하여 두 접근 방식의 장점을 활용하는 다층 시스템을 만들 수 있습니다. 하이브리드 시스템을 사용하면 장기적으로 AI 구현이 더욱 정확해지고 투명성을 희생하지 않고도 새로운 금융 범죄 위협을 보다 유연하게 해결할 수 있습니다.

이를 위해 기관은 AI 모델을 지속적인 인간 피드백과 통합할 수 있습니다. 따라서 모델의 적응형 학습은 데이터 패턴뿐만 아니라 데이터 패턴을 개선하고 재조정하는 인간의 입력을 기반으로 성장할 것입니다.

모든 AI 시스템이 동일한 것은 아닙니다. AI 모델은 AFC 팀에서 식별한 규정 변경 및 새로운 위협 인텔리전스를 기반으로 정기적인 업데이트를 통해 정확성, 공정성 및 규정 준수를 평가하기 위해 지속적인 테스트를 거쳐야 합니다.

AI 개발 및 배포가 특정 가드레일 내에서 실행되도록 하려면 위험 및 규정 준수 전문가가 AI 교육을 받거나 AI 전문가를 팀에 고용해야 합니다. 또한 AI에 특화된 규정 준수 프레임워크를 개발하여 규정 준수 전문가를 위한 신흥 부문의 규정 준수 경로를 구축해야 합니다.

AI 채택의 일환으로, 조직의 모든 요소가 작업 중인 새로운 AI 모델의 기능과 단점(예: 잠재적 편견)에 대해 브리핑을 받아 잠재적인 AI 모델에 대한 인식을 높이는 것이 중요합니다. 오류.

또한 조직은 보안과 데이터 품질을 유지하기 위해 특정 기타 전략적 고려 사항을 고려해야 합니다. 고품질의 안전한 데이터 인프라에 투자하고 정확하고 다양한 데이터 세트에 대한 교육을 받는 것이 중요합니다.

AI는 은행에 대한 위협이자 방어 도구이며 앞으로도 그럴 것입니다. 그러나 문제를 해결하기보다는 문제 발생을 방지하기 위해 이 강력한 신기술을 올바르게 처리해야 합니다.

게시물 AI 및 금융 범죄 예방: 은행에 균형 잡힌 접근 방식이 필요한 이유 처음 등장한 Unite.AI.

Share post:

Subscribe

Popular

More like this
Related

WeRide, 취리히 공항에 자율 셔틀 배치

WeRide의 자율 미니버스는 취리히 공항에서 셔틀 서비스를 제공합니다. |...

매스로보틱스, 2025년 헬스케어 로봇공학 스타트업 촉매 집단 선정

MassRobotics는 최신 Healthcare Catalyst 스타트업 코호트를 멘토링하기 위해 기업...

Kurabo와 Flexiv, 협력하여 KURAVIZON 적응형 로봇 개발

KURAVIZON 로봇은 Flexiv의 Rizon 암과 Kurabo의 감지 기술을 통합합니다....

Harman Kaur, Tanium AI 부사장 – 인터뷰 시리즈

하만 카우르 AI 부문 부사장이다. 타늄업계 유일의 진정한 AI...