금융 서비스 분야의 설명 가능한 AI 애플리케이션 - 실제 사례 포함

게시자
울랩 팀
켜기
2024년 4월 11일 3:19 PM

생성 AI는 금융 서비스 및 투자 산업을 위한 강력한 도구입니다. 

금융 서비스 분야에서는 더 빠르고 정확한 정보를 바탕으로 의사 결정을 내리고 운영 효율성을 높일 수 있는 능력이 필요합니다.

2020년에만 전 세계에서 7,260억 건이 넘는 디지털 결제가 이루어졌습니다. 이러한 거래 중 25%는 수작업으로 검토되어 지연, 오류, 사기가 발생했습니다.

이점은 의사 결정 그 이상입니다.

생성 AI는 다음과 같은 금융 서비스에서 실제 사용 사례가 있습니다:

  • 챗봇
  • 사기 탐지
  • 브로커의 투자 종목 선택 지원
  • 개인화된 신용도 계산
  • 디지털 지갑 간 P2P 결제
  • 소비자의 대출 또는 부채를 낮추도록 지원
  • 생체 인증을 위한 얼굴 또는 음성 인식

응용 분야는 무궁무진하며, 이는 중요한 의문을 제기합니다:

금융 서비스 업계에서 제너레이티브 AI의 구현에 대한 신뢰를 어떻게 확보할 수 있을까요?

이 글에서 이에 대해 살펴보겠습니다.

금융 서비스에서 AI의 한계

생성 AI는 강력한 도구이지만, 특히 금융 서비스 업계에서는 한계가 있습니다.

즉, AI 모델에 대한 투명성과 가시성이 부족하다는 것입니다.

  • 모델이 해당 응답을 선택한 이유는 무엇인가요?
  • 모델이 제공할 수 있는 다른 답변이 있었나요?
  • 모델의 답변이 얼마나 확실한가요?
  • 모델이 민감하거나 부정확한 데이터에서 가져온 것이 있나요?
  • 어떻게 개발, 교육, 모니터링 또는 조정되었나요?
  • 기존의 사회적 편견의 영향을 받은 편견이 있나요?

이러한 제한 사항은 모델의 신뢰도에 영향을 미칠 수 있습니다.

생성적 AI의 위험 

생성 AI의 위험은 다음과 같습니다:

  • 데이터 소스: 모델 학습 및 업데이트에 사용되는 데이터에는 저작권 자료, 대체 견해가 있는 국가 또는 조직의 정보, 기밀 정보, PHI(보호 대상 건강 정보), CUI(통제 대상 기밀 정보) 또는 생성형 AI 모델에 포함되지 않는 기타 민감한 데이터 소스가 포함될 수 있습니다.

  • 모델 거버넌스: OpenAI를 비롯한 상업적 조직에서 제공하는 생성형 AI 모델은 모델이 어떻게 개발, 학습, 모니터링 또는 조정되는지에 대한 인사이트를 제공하지 않습니다. 이러한 프로세스에 대한 이해가 없으면 최종 사용자가 모델의 목표와 결과를 잘못 해석할 수 있습니다.

  • 모델 투명성: 생성형 AI 모델은 최종 사용자에게 결과를 제공하기 전에 수많은 데이터 포인트를 평가합니다. 대부분의 경우, 모델은 사용자에게 결과를 제공하기 전에 여러 옵션을 평가해야 합니다. 상용 제품은 모델 불확실성에 대한 가시성, 설명, 응답에 대한 맥락 또는 모델이 제공할 수 있었던 대체 응답을 제공하지 않습니다.

  • 모델 편향: 생성형 AI 시스템은 학습 데이터 세트와 알고리즘 구조에서 사회적, 인구통계학적 변수의 영향을 받아 편향성을 보일 수 있습니다. 적절하게 해결하지 않으면 이러한 모델은 소스 데이터에 내재된 인종, 성별, 연령, 민족 등과 관련된 기존의 사회적 편견을 흡수하고 확대할 가능성이 있습니다.

트랜잭션 모니터링의 제너레이티브 AI

이러한 제한이 어떻게 적용되는지 구체적인 예를 통해 살펴보기 위해 트랜잭션 모니터링을 살펴보겠습니다.

거래 모니터링을 위해 제너레이티브 AI를 도입한 은행에서 일한다고 상상해 보세요.

AI 모델을 개발할 때는 과거 익명화되고 집계된 데이터로 학습하여 과거 패턴을 기반으로 이벤트를 예측하고 거래를 점수화할 수 있습니다.

일단 모델이 생산에 들어가면 수십억 가지 방식으로 상호 작용하는 수백만 개의 데이터 포인트를 수신하여 어떤 인간 팀보다 빠르게 결과물을 만들어냅니다.

이 AI 모델은 데이터 수집 시 '노이즈'를 줄여 오탐을 줄이고 거래 모니터가 위험한 거래를 인식하는 데 도움을 줄 수 있어 큰 이점이 있습니다!

그리고 바로 여기서 위험이 발생합니다.

AI 모델은 원래 모델을 구축한 팀만 이해할 수 있는 폐쇄적인 환경에서 이러한 결과를 생성할 수 있습니다.

뿐만 아니라 데이터 세트에 의도하지 않은 편견이 모델에 도입되어 특정 인종 그룹에 대해 훨씬 더 자주 발생하는 오탐이 발생했을 수 있습니다.

그렇기 때문에 모델의 투명성이 매우 중요합니다.

설명 가능한 AI란 무엇인가요?

설명 가능한 AI는 인간 사용자에게 AI 모델의 모든 측면에 대한 투명성과 가시성을 제공합니다. 이를 통해 사용자는 AI 모델과의 상호 작용, 특히 모델 결과물을 이해하고 신뢰할 수 있습니다.

다음은 간단한 작동 방식입니다:

  • 이유 코드는 모델의 사용자에게 표시되는 출력에 할당됩니다.
  • 사용자는 이러한 코드를 검토하여 결과를 설명하고 확인할 수 있습니다.

예시로 돌아가 보겠습니다:

계정 관리자 또는 사기 조사자는 여러 결과에서 유사한 편향성이 나타난다고 의심합니다.

개발자는 이유 코드를 검토하여 편향이 존재하는지 확인할 수 있습니다. 그런 다음 개발자는 모델을 변경하여 편향성을 제거함으로써 유사한 결과가 다시 발생하지 않도록 할 수 있습니다.

금융 서비스에서 설명 가능한 AI의 힘

설명 가능한 AI는 금융 서비스 업계에 상당한 이점을 제공합니다.

모델에 대한 가시성을 확보하고 모델이 특정 결과를 생성하는 이유를 이해하면 신뢰, 책임감, 규정 준수를 촉진하는 데 도움이 됩니다.

설명 가능한 AI가 금융 서비스 산업에 영향을 미치는 몇 가지 방법을 소개합니다.

위험 평가 및 완화

설명 가능한 AI는 위험 모델에서 고려되는 요소와 변수에 대한 투명성을 제공하여 사용자가 위험 평가를 이해하고 검증할 수 있도록 합니다.

사용자는 결과를 신뢰하는 대신 분석된 데이터와 모델이 특정 결과를 선택한 이유에 대한 인사이트를 얻을 수 있습니다.

예시로 돌아가 보겠습니다:

은행은 설명 가능한 AI를 사용하여 신용도를 평가할 수 있습니다.

설명 가능한 AI 모델은 다양한 데이터 포인트(신용 기록, 소득, 인구 통계 정보, 신용 점수 등)를 분석한 후 신용 결정을 설명할 수 있습니다.

이는 공정성을 보장하고 대출에서 차별적 관행의 위험을 줄이는 데 도움이 될 것입니다.

규정 준수 및 규제 요건

또한 설명 가능한 AI는 감사 가능하고 투명한 의사 결정 프로세스를 제공하여 금융 기관이 규제 프레임워크를 준수하는 데 도움이 됩니다.

이러한 프로세스는 문서화되어 있어 AI 모델이 내린 결정을 쉽게 이해하고 정당화할 수 있습니다.

예시로 돌아가 보겠습니다:

은행은 설명 가능한 AI를 사용하여 방대한 양의 금융 데이터를 분석하고 의심스러운 거래를 표시하며 사기 행위를 탐지하기 위한 설명을 제공할 수 있습니다.

이러한 투명성은 규정 준수 책임자가 규정 지침을 준수하는지 확인하는 데 도움이 됩니다.

포트폴리오 관리 및 투자 결정

설명 가능한 AI는 포트폴리오 매니저와 투자자의 자산 배분, 포트폴리오 최적화, 투자 전략 수립에 도움을 줄 수 있습니다.

이 작업을 수행합니다:

  • 과거 시장 데이터 분석
  • 패턴 식별
  • 권장 사항에 대한 설명 제공

마지막 요점이 핵심입니다. 

포트폴리오 관리자와 투자자는 AI 모델 결과의 근거를 이해함으로써 자신에게 적합한 위험과 이익을 평가하고 정보에 입각한 의사결정을 내릴 수 있습니다.

고객 신뢰 및 교육

설명 가능한 AI는 금융 기관이 고객과 신뢰를 구축하는 데 도움이 됩니다.

로보 어드바이저리 플랫폼을 예로 들어보겠습니다.

대부분의 대형 투자 회사는 어떤 형태로든 로보 어드바이저를 제공합니다:

이제 로보 어드바이저가 투자 추천에 대한 설명을 제공한다고 상상해 보세요.

고객은 이러한 추천이 제안된 이유를 이해할 수 있어 추천을 신뢰할 수 있는 이유를 갖게 됩니다.

또한 재정적 결정을 내리는 방법과 그러한 선택이 목표에 어떻게 부합할 수 있는지에 대해 자세히 알아볼 수 있습니다.

금융 편향성 방지

설명 가능한 AI는 재무 의사 결정에서 편견과 편견을 방지하는 데도 도움이 될 수 있습니다.

생성형 AI 모델은 제한된 데이터 세트와 소스 데이터에 내재된 기존의 사회적 편견을 흡수하고 확대하는 능력으로 인해 편견에 빠지기 쉽습니다.

설명 가능한 AI가 없으면 모델은 인종, 성별, 연령, 민족과 관련된 보호 대상 특성에 따라 지원자를 차별하는 결과를 생성할 수 있습니다.

설명 가능한 AI를 사용하면 계정 관리자, 사기 조사관, 포트폴리오 관리자 등이 의사 결정에 이르게 된 데이터를 검토하여 모델이 결과물에 편견을 도입하지 않았는지 확인할 수 있습니다.

설명 가능한 AI로 움직이는 스마트 머니

설명 가능한 AI는 금융 기관이 AI 모델을 수용하는 현명한 방법입니다.

생성 AI의 블랙박스를 제거하고 사용자에게 데이터와 모델이 그 결과를 선택한 이유에 대한 투명성을 제공함으로써 사용자는 위험을 피하고 금융 서비스 업계에서 자신 있게 AI 모델을 사용할 수 있습니다.

Ulap에서는 금융 서비스 산업을 위한 설명 가능한 AI 개념을 개발, 학습, 모니터링 및 조정하고 모델을 통합합니다.

귀사의 AI 모델에 생명을 불어넣을 수 있는 방법을 알아보세요.