담당업무 - 데이터 아키텍처 설계 및 구축, 데이터 모델링, 및 ETL(Extract, Transform, Load) 프로세스 개발 - 대용량 데이터 처리 및 저장을 위한 데이터 파이프라인 구축 및 최적 - 데이터 품질 관리 및 데이터 유효성 검사를 위한 자동화된 모니터링 및 알람 시스템 구축 - 데이터 보안 및 개인정보 보호를 준수하며 데이터 저장 및 처리 방식 개선 - 데이터 분석 및 영업, 마케팅, AI 팀과 협력하여 데이터 플랫폼 통합 및 확장 지원 - 데이터 웨어하우스 및 데이터 레이크 관리, 성능 최적화 및 비용 효율성 개선
자격요건
- 컴퓨터 공학, 정보 시스템, 데이터 과학 또는 관련 분야의 학사 이상 학위 소지자 - 2년 이상의 데이터 엔지니어링 경험 보유자 (Middle급은 5년 이상) - SQL, NoSQL, 데이터 웨어하우스 및 데이터 레이크에 대한 깊은 이해 - Apache Kafka, Apache Spark, Hadoop, Hive 등 빅 데이터 처리 및 분산 컴퓨팅 기술에 능숙 - AWS, GCP, Azure 등 클라우드 기반 데이터 저장 및 처리 서비스 경험 - 데이터 품질 관리 및 데이터 관리 전략에 대한 이해 - 다른 팀원들과의 원활한 커뮤니케이션 및 협업 능력 - 사용자와 이해 관계자의 요구사항을 정확히 해석하고 논리적이고 체계적으로 해법을 만드는 능력 - 논리적인 표현력으로 내부/외부 고객과 소통하고 이해시키고자 노력하는 긍정적인 태도 - 어떤 상황에서도 프로젝트를 달성할 수 있도록 열린 마음으로 대안을 찾으려는 도전 정신 - 과거 프로젝트에서의 수행 역할을 잘 설명하는 포트폴리오 제출 필수
우대사항
- 데이터 엔지니어링 관련 인증 (예: AWS Certified Data Analytics, Google Cloud Professional Data Engineer) - 기계학습, 딥러닝 및 AI 분야에 대한 이해 및 MLOps 경험 및 인증(예: Google Cloud Professional Machine Learning Engineer, AWS Machine Learning Specialty) - 다음 언어 중 한가지 이상 언어로 개발 경험 Java/Python/Scala- Cloud native 프로젝트 진행 경험행 - Container/Docker/Kubernetes(Container Orchestration 전반) 실무 경험이나 이해- 실시간 데이터 처리 및 스트리밍 기술에 대한 경험 - 데이터 시각화 도구 (예: Tableau, Power BI, Looker) 사용 경험 - 이러닝 서비스 유경험자
|