logo
logo
https://groupby-public-image.s3.ap-northeast-2.amazonaws.com/startups/1225/1747369772/스크린샷 2025-05-16 132923.png
‘세상을 널리 AI롭게 하자’는 미션 아래, AI 기술을 통해 더 많은 기업과 개인이 가치를 생산하고 공유할 수 있는 서비스를 만드는 기업
서울 강남구AI
AI 인프라 연구원(SW+HW)
빠른 응답
성실 검토
포지션대표R&D, 인공지능 · 머신러닝, 소프트웨어 엔지니어, 하드웨어 엔지니어
경력 구분무관
특이사항부분 원격근무 가능
스킬
Airflow
MLflow
Docker
Kubernetes
주요업무

[공통]

  • AI 및 AI 인프라 관련 다양한 기술 리서치 및 제품화
  • 딥러닝 기술 트렌드에 맞는 인프라 기술 조사 및 적용
  • MLOps 플랫폼 리서치 및 기술 반영


[AI For Infrastructure]

  • AI 인프라 운영을 위한 LLM 서비스 개발
  • 효율적인 워크로드 스케줄링 알고리즘 개발 
  • AI 서비스의 SLO(Service Level Objective)의 달성을 위한 인프라 구성 추천 모델 개발


[Infrastructure for AI]

  • 자사 Kubernetes 기반 GPUaaS 플랫폼의 MLOps 기능 기획 및 구축
  • GPU 효율성을 높이기 위한 시스템 소프트웨어 개발
  • AI 워크로드의 성능 모니터링 및 프로파일링 서비스 개발


RA:X (Reference Architecture of TEN) Team

RAX 팀은 고객의 AI 개발 및 운영 목적에 알맞게 ‘AI 인프라의 구축(HW)’과 ‘효율적인 운영 도구(SW)’를 함께 지원함으로써, 기업의 ‘AI 전환(AI Transformation)’을 가속화하는 역할을 담당합니다.


이를 위해 RAX 팀은 두 가지 방향의 연구를 동시에 수행합니다.

  • AI for Infrastructure: AI 인프라를 효율적으로 사용하기 위한 AI 기술을 개발
  • Infrastructure for AI: AI 개발과 운영을 위한 AI 인프라 기술과 소프트웨어를 개발


RA:X의 목표는 이 두 영역 간의 선순환 구조를 만들어 지속적인 최적화가 가능한 AI 인프라를 구축하는 것입니다.


특히, TEN은 RAX팀의 연구를 뒷받침하기 위한 AI RA(Reference Architecture) 인프라를 보유하고 있습니다.

  • GPU 서버: DGX-H100, DGX-A100 를 비롯한 다양한 티어의 GPU 서버
  • 네트워크 장비: Infiniband(400G, 200G, 100G), Ethernet(400G, 100G)
  • 스토리지: 다양한 벤더의 네트워크/분산 파일 시스템 스토리지

중요한 것은 AI RA가 인공지능 인프라 기술 R&D를 하기 위한 전용 장비라는 것입니다. 특히 하드웨어 벤더들이 신제품이 나오면 RAX팀에 성능 테스트를 의뢰할 만큼 국내에서는 유명한 인프라이며, 이를 바탕으로 최신 트렌드 연구가 활발히 이루어지고 있습니다.

자격요건

[공통]

  • AI 및 AI 인프라 관련 경력 3년 이상 (혹은 관련 석박사 학위자의 경우 신입 가능)
  • [AI For Infrastructure]나 [Infrastructure for AI] 영역 중 하나 이상의 자격 요건을 보유한 분
  • AI 및 인프라 관련 기술 문제를 정의하고 해결한 경험이 있는 분
  • Kubernetes, Docker, 리눅스 서버에 대한 이해와 시스템 운영 능력
  • AI를 활용해 생산성을 높이고 새로운 문제 해결에 도전할 수 있는 분


[AI For Infrastructure]

  • 분산 시스템 및 클라우드 환경 개선 및 지원을 위해 AI을 활용한 경험이 있는 사람
  • AI 인프라에서 생성되는 메트릭을 수집 및 분석하여 병목 원인을 분석할 수 있는 분


[Infrastructure for AI]

  • Kubernetes의 오픈소스 MLOps 생태계를 활용한 프로젝트 경험이 있는 사람
  • 머신러닝 개발자의 관점에서 MLOps 지원 요소를 분석 및 정의하고 이를 개발할 수 있는 사람
우대사항
  • 클러스터 및 클라우드 환경 개선/지원하는 AI 연구 및 개발 경험
  • MLOps 플랫폼(예: Kubeflow, MLflow, Seldon, Airflow 등) 구축 또는 운영하여 효율성을 향상시킨 경험
  • Kubernetes 및 클라우드 네이티브 오픈소스 기여 경험
  • 초거대 규모 모델 학습 추론 서비스 배포 및 운영 경험
  • GPU 최적화 관련 연구 수행자 혹은 석박사 학위 소지자
채용절차

서류전형 > 직무 인터뷰 > 대표님과 저녁 식사 면접 > 최종합격

합류하면 얻을 수 있는 것
#의견_제시에_수용적#목표_지향#자율성#주도성#책임감_있는_팀원#도전적인_문제#주도적_문제_정의#유연근무
근무지
서울특별시 강남구 테헤란로27길 18 (서울, 강남구)
logo
(주)그룹바이HR | 서울특별시 영등포구 영등포로 150 C동 908호대표 : 임진하 / 박상민사업자등록 : 333-88-02226유료직업소개업 등록번호 : 제 2005-3180270-14-5-00019호직업정보제공사업 신고번호 : J1200020230023문의 : hello_world@groupby.biz | 070-8018-7502 (평일 오전 10시 ~ 오후 6시)
instagramkakaotalkyoutube