글 리뷰.
CDP 구축 단계에서 마주하는 문제들
데이터 드리븐 고객 경험을 읽고 | CDP PM으로 새로운 커리어를 시작했습니다. CDP는 Customer Data Platform의 약자로, 고객 데이터를 하나로 통합해 비즈니스에 효과적으로 활용할 수 있도록 구축하는
brunch.co.kr
아래는 읽으면서 정리했던 독서 노트.
데이터 활용의 4가지 유형
- Data Product Business
- Data-driven Customer Experience
- 총체적 경험 = 사용 경험 + 고객 경험 + 임직원 경험 + 복합 경험
- 고객에게 wow moment를 선사하기 위한 고민이 필요
- 개인화된 구매 경험을 제공하기 위해 필요한 데이터와 순간들이 존재함
- CDP Product팀은 임직원 경험 개선을 통해 무신사의 총체적 경험을 개선하고 있음
- 우리 프로덕트의 wow moment는 어떻게 제공될 수 있을지 고민 필요
- Data-driven Operation Excellence
- Data-Driven New Business
고객 경험과 비즈니스의 동반 성장 방법
- 데이터 기반의 성장은 지속적 선순환을 통해 이루어짐
- 성장 관리 프레임워크
- 고객 데이터 상시 분석
- CEJ 인사이트 도출 (Painpoint, 니즈 등)
- 고객 경험 개선 포인트 도출
- 실행의 효과성 검증
- Growth 운영 관리
- Single Customer View (SCV)
- 온/오프라인 데이터가 통합되어 고객을 360도 이해 가능
- SCV가 구축되면 상시적으로 개인 단위 또는 세그먼트 단위 타겟팅 가능
- Customer Experience Journey (CEJ)
- 브랜드 인지부터 구매까지의 전 과정을 포함하는 다양한 Touchpoint
- 긍/부정 경험 및 여정 상 위치 분석을 통해 인사이트 도출 가능
- 마이크로 CEJ는 Amplitude 등으로 분석 가능
- 매크로 CEJ는 분석이 상대적으로 어려움
- 고객 여정은 구매 이력, 온라인 행동 데이터를 통해 분석 가능
- 유즈 케이스 시나리오 디자인
- 고객 경험 관점에서 문제 정의 필요
- CDP 기술 구현과 시나리오/전략 컨설팅이 병행되는 경우, 기능 구현과 IT 이슈 해결에 많은 리소스가 필요함
- 컨설팅 영역의 소홀함은 프로젝트의 실패 원인이 될 수 있음
성공적인 CDP 구현을 위한 핵심 전략
CDP 기획의 핵심 요소
- 통합의 중요성
- 데이터 사일로 현상 해소 필요
- 데이터 사일로: 조직 간 데이터가 고립되거나 중복 설계되어 비효율적인 상태
- 통합되지 않은 데이터 레이크가 많아지면 오히려 활용성 저하
- CDP 레퍼런스 아키텍처는 데이터 사일로 해소에 도움이 됨
- CDP의 핵심 기능
- 데이터 수집
- 프로파일 통합 (Unification)
- Segmentation 및 분석
- Activation (마케팅 실행 등)
- 즉시 활용 가능한 데이터 저장소
- ID Resolution 기능: 하나의 고객 프로파일 생성 (CRM 고객번호, 쿠키ID 등 연결)
- 세그먼트 분석 기능: 유사 속성 고객 그룹 식별
- Activation 기능: 세그먼트를 기반으로 마케팅 실행
- 실시간의 중요성
- 실시간 기능이 필요한 데이터 정의 필요
- 중복 레코드, 일관성 문제 등 데이터 품질 개선 필수
- 실시간 데이터 통합을 위한 강력한 처리 성능 필요
데이터를 어떻게 수집하고 통합하는가
- 비즈니스 활용 목적에 맞는 데이터 정의 및 수집 대상 명확화
개인 고객 중심의 데이터 통합
- 프로파일 통합: 여러 고객 식별자를 신규 통합 ID로 통합
- 고객 식별자 정보를 선택하고, 저장할 정보 결정 필요
- ID Resolution
- 배치/실시간 맵핑 테이블 생성
- 결정론적 맵핑: 로그인 기반 연결
- 확률론적 맵핑: 행동 패턴 기반 동일 ID 추정
- 표준화 모델링
- 공통 데이터 구조 정의
- 새로운 행동 정보 수집/분석을 위한 기반
- CEJ 표준화 모델링 정의 시 Touchpoint에 대한 정의 필요
고객 데이터를 저장하는 방법
- 컴플라이언스 준수
- 개인정보와 일반정보의 분리 저장 필요
- L0: 원천 데이터, 암호화/범주화 저장
- L1: 분석 효율을 위한 가공 데이터
- L2: 모델 기반 생성 데이터 (예: 관심도 지수)
- 아카이빙: 장기 보관 목적의 데이터 (저비용 저장소 활용)
- 개인정보 포함 시 처리 방식
- 사용하지 않는 경우 삭제
- Secure Zone에 별도 저장
- 해시 처리 저장
- 범주화하여 저장
'독서기록' 카테고리의 다른 글
'페이머스, 왜 그들만 유명할까'를 읽고 - 타인의 성공 방정식이 나에게도 적용될 수 있을까? (0) | 2025.06.22 |
---|---|
'나는 AI와 공부한다'를 읽고 - 우리는 모두 전문가와 관리자가 동시에 되어야한다 (2) | 2025.06.01 |
'유니클로'를 읽고 - 현실의 연장선상에 목표를 두지 말자 (1) | 2025.05.16 |
'모든 것은 예측 가능하다'를 읽고 | 직관을 뛰어넘는 사고, 베이즈 정리 (0) | 2025.02.01 |
'이방인'을 읽고 | 세상의 상식을 맞추기 위해 살아가는 나에게 (1) | 2025.02.01 |