일상/IT

금융 서비스에서 Apache Kafka를 사용한 분산 데이터 메시

얇은생각 2023. 4. 29. 07:30
반응형

독립적인 사업부 간의 데이터 스트리밍과 실시간으로 이벤트를 공유하는 데이터 메시에 대한 금융 서비스의 사례 연구가 포함되어 있습니다.

디지털 혁신은 모든 기업에서 성공을 위한 중요한 요소로서 민첩성과 빠른 출시 시간을 요구합니다. 데이터 메시를 사용한 분산화는 애플리케이션과 사업부를 독립적인 도메인으로 분리합니다. 데이터 스트리밍을 통해 실시간으로 데이터를 공유하면 적절한 상황에서 적절한 애플리케이션에 적절한 정보를 적시에 제공할 수 있습니다. 이 기사에서는 느슨하게 결합된 데이터 공유를 위해 국가 간에 데이터 메시가 구축되었지만 표준화된 전사적 데이터 거버넌스를 위해 금융 서비스 부문의 사례 연구를 살펴봅니다.

 

 

데이터 메쉬: 실시간 데이터 스트리밍의 필요성

최신 유행어가 있다면 틀림없이 "데이터 메시!"가 될 것입니다 이 새로운 아키텍처 패러다임을 통해 분석 및 트랜잭션 데이터를 규모에 맞게 활용할 수 있으며, 다양한 사용 시나리오를 위해 점점 더 많은 분산 도메인 데이터셋에 신속하게 액세스할 수 있습니다. 데이터 메시는 기존 중앙 집중식 데이터 레이크 또는 데이터 플랫폼 아키텍처의 가장 일반적인 약점을 해결합니다. 분산형 데이터 메시 인프라의 핵심은 실시간, 안정성 및 확장성이어야 합니다:

 

 

 

금융 서비스의 디지털 전환

전 세계 은행에서 데이터 스트리밍을 활용한 실시간 데이터에 대한 몇 가지 이니셔티브를 확인했습니다:

- 레거시 현대화(예: 메인프레임 오프로드 및 Apache Kafka로 교체).

- ETL, ESB 및 iPaaS 플랫폼을 대체하는 확장 가능한 개방형 인프라를 통한 미들웨어 현대화.

- 재해 복구, 마이그레이션 및 기타 시나리오를 위한 하이브리드 클라우드 데이터 복제.

- 트랜잭션 및 분석을 모든 규모의 실시간으로 수행합니다.

- Kafka 및 Flink를 통해 실시간으로 부정 행위를 탐지하여 부정 행위가 발생하기 전에 방지합니다.

- 최신 비즈니스 프로세스를 지원하는 클라우드 네이티브 코어 뱅킹.

- Apache Kafka를 암호화폐, DeFi, NFT, Metaverse의 데이터 허브로 하는 디지털 결제 혁신(버즈 너머).

 

 

Raifeisen Bank International: 12개국에 걸친 은행 전환

RBI(Raifeisen Bank International)는 은행 전반의 혁신 프로그램의 일환으로 그룹 전반에 걸쳐 이벤트 중심 아키텍처를 확장하고 있습니다. 여기에는 참조 아키텍처의 구축과 12개국에 걸친 기술 및 개념의 재사용이 포함됩니다.

이 유니버설 은행은 오스트리아 빈에 본사가 있습니다. 소매, 기업 및 시장, 투자 은행에서 수십 년의 경험(및 관련 레거시 인프라)을 보유하고 있습니다.

Raifeisen Bank의 디지털 전환 과정을 살펴보겠습니다.

 

 

모르는 사이에 데이터 메시 구축

12개국에 걸쳐 운영되는 Raifeisen Bank는 애플리케이션, 플랫폼 및 정부 간 데이터 공유에 대한 명백한 문제와 요구 사항을 모두 가지고 있습니다.

Raifeisen Bank는 실시간 데이터 공유를 디지털 전환의 기본 키로 하는 분산형 데이터 메시 엔터프라이즈 아키텍처를 구축했습니다. 그들은 그것을 만들기 시작했을 때 유행어가 존재하지 않았기 때문에 그것에 대해 알지도 못했습니다. 그러나 데이터 스트리밍을 데이터 허브로 사용하는 데는 다음과 같은 좋은 이유가 있습니다:

 

 

RBI의 데이터 메시와 데이터 스트리밍의 엔터프라이즈 아키텍처:

참조 아키텍처에는 데이터 스트리밍이 인프라의 핵심으로 포함됩니다. 확장 가능하고 분리된 실시간 독립 도메인 및 애플리케이션입니다. 요청-응답 통신을 위한 개방형 뱅킹 API는 다음과 같습니다:

출처 : Raifeisen Bank International

 

 

엔터프라이즈 아키텍처의 3가지 핵심 원칙은 국가 전체에서 민첩하고 확장 가능하며 미래를 대비한 인프라를 보장합니다:

 - API: 도메인 기반 설계를 기반으로 표준화된 내부 API입니다.

- 그룹 통합: 라이브, 11개국과 연결, 320개의 API를 사용할 수 있으며 지속적으로 증가하고 있습니다.

- EDA: 이벤트 중심 참조 아키텍처가 생성되고 롤아웃이 진행 중이며 그룹 계층이 최초 사용 사례와 함께 라이브로 제공됩니다.

 

데이터 스트리밍과 Apache Kafka의 조합 및 REST/HTTP의 요청-응답의 조합은 엔터프라이즈 아키텍처에서 널리 사용됩니다. 그러나 점점 더 많은 사용 사례가 사업부 또는 조직 간의 데이터 공유를 위해 스트림 데이터 교환을 직접 활용하고 있습니다.

 

 

분산된 데이터 스트리밍을 통합 계층으로 사용한 디커플링

전체 IT 플랫폼 및 기술 스택은 그룹에서 재사용할 수 있도록 구축되었습니다: 

출처 : Raifeisen Bank International

 

Raifeisen Bank의 레퍼런스 아키텍처는 데이터 메시를 정의하는 모든 특성을 가지고 있습니다:

- 도메인 기반 설계를 통해 애플리케이션, 데이터베이스 및 사업부 간의 느슨한 결합.

- 독립적인 마이크로 서비스 및 데이터 제품(국가별 핵심 뱅킹 플랫폼 또는 개별 분석 등).

- 분산된 데이터 스트리밍 플랫폼을 통해 실시간으로 데이터를 공유합니다(가능한 경우 클라우드에서 완벽하게 관리되지만 국가별로 자유롭게 선택 가능).

- 전사적 API 연락처(= 카프카 세계의 스키마).

-  데이터 메쉬 전반에 걸친 규제 은행 업무에서의 데이터 거버넌스

 

금융 서비스는 전 세계적으로 규제받는 시장입니다. PCI, GDPR 및 기타 규정 준수 요구사항은 모노리스를 구축하든 분산형 데이터 메시를 구축하든 필수입니다.

 Raifeisenbank International은 처음부터 데이터 거버넌스, 법적 준수 및 데이터 개인 정보 보호를 염두에 두고 데이터 메시를 구축했습니다:

출처 : Raifeisen Bank International

 

Raifeisen Bank의 데이터 거버넌스 전략의 기본 원칙은 다음과 같습니다:

- 트랜잭션 및 분석 워크로드를 위해 독립 그룹 간에 실시간으로 데이터를 공유할 수 있는 중앙 통합 계층입니다.

- 데이터 스트리밍을 위해 완벽하게 관리되는 융합형 클라우드를 통한 클라우드 우선 전략(적절한 경우).

- 스키마 레지스트리를 사용하여 그룹 차원에서 표준화된 이벤트 분류법 및 API 계약을 체결합니다.

- 그룹 전체에 걸쳐 이벤트 제품 소유자와 함께하는 그룹 차원의 거버넌스.

- 서로 다른 그룹의 내부 고객을 위한 셀프 서비스형 플랫폼(Platform as a Service).

이러한 패러다임과 규칙을 결합하면 독립적인 데이터 처리와 혁신을 가능하게 하는 동시에 서로 다른 그룹 간에 데이터를 공유하고 규정을 준수할 수 있습니다.

 

 

결론

독립적인 애플리케이션, 도메인 및 조직은 데이터 메쉬에 별도의 데이터 제품을 구축했습니다. 표준화되고 느슨하게 결합된 이벤트를 통해 이러한 장치 간의 실시간 데이터 공유는 중요한 성공 요인입니다. 각 다운스트림 소비자는 필요에 따라 데이터를 얻습니다: 실시간, 거의 실시간, 일괄 처리 또는 요청 응답. 

Raififisen Bank International의 사례 연구는 Apache Kafka에서 제공하는 클라우드 네이티브 데이터 스트리밍을 활용하여 강력하고 유연한 데이터 메시를 구축하는 방법을 보여주었습니다. 이 예는 금융 서비스에서 나온 것이지만 원칙과 아키텍처는 모든 수직적인 분야에 적용됩니다. 비즈니스 개체와 인터페이스가 다르게 보입니다. 그러나 중요한 문제는 산업 전반에 걸쳐 매우 유사합니다.

반응형