• 매일 다양한 소스(웹·API·내부 DB 등)로부터 수집되는 데이터의 **품질 검증 및 모니터링**
- 이상값 탐지, 누락 체크, 중복 제거, 통계 기반 품질 리포트 작성
• 안정적인 데이터 파이프라인(ETL/ELT) 개발 및 운영
- Airflow 기반 배치/스트리밍 파이프라인 구축
- 인입 정제 변환 적재 검증 프로세스 설계
• Data Lake / Data Warehouse / Data Mart 구축 및 관리
- S3 기반 Raw/Curated/Analytics 영역 구분
- Athena, Redshift, ClickHouse 등 최적 구조 설계
• 성능 모니터링 및 최적화
- 파티셔닝 전략, 인덱싱 설계, 압축·포맷(parquet/orc) 최적화
• 데이터 사이언티스트, 분석가, 서비스팀과 협업해
**데이터 요구사항 정의 및 스키마 설계*