Machine Learning Engineer, Infrastructure

Twelve Labs
Seoul, South KoreaPosted 26 March 2026

Job Description

Machine Learning Engineer, Infrastructure WHO WE ARE 영상 이해 AI의 글로벌 기준을 함께 만들어 갈 인재를 찾습니다! 트웰브랩스는 방대한 영상 데이터를 효과적으로 처리하여, 영상에 특화된 검색, 분석, 요약, 인사이트 생성 기능을 제공하는 세계 최고 수준의 영상 특화 AI 모델을 만들고 있습니다. 세계 최대 스포츠 리그에서는 트웰브랩스 모델을 활용해 방대한 경기 영상 속에서 빠르고 정확하게 하이라이트를 선별하여 초개인화된 시청 경험을 제공하고 있습니다. 국내 통합관제센터에서는 위기 상황에 신속히 대응하기 위해 트웰브랩스와 함께 CCTV 영상을 효율적으로 탐색하고 있으며, 전 세계 주요 방송사와 스튜디오들은 수십억 명의 시청자를 위한 콘텐츠 제작에 트웰브랩스 모델을 활용하고 있습니다. 트웰브랩스는 샌프란시스코와 서울에 오피스를 둔 Deep Tech 스타트업으로, 4년 연속 CB Insights 선정 세계 100대 AI 스타트업에 이름을 올렸습니다. NVIDIA, NEA, Index Ventures, Databricks, Snowflake 등 세계적인 VC와 기업들로부터 총 1억 1천만 달러 이상의 투자를 유치했으며, 한국에서 개발된 AI 모델 중 유일하게 Amazon Bedrock을 통해 서비스됩니다. 우리는 탁월한 동료들과 혁신적인 제품을 만들고 전 세계 고객들과 함께 성장하고 있습니다. 트웰브랩스는 다음과 같은 핵심 가치를 중심으로 일합니다. - 나와 팀에 대해 정직하고 성찰할 수 있는 태도 - 실패와 피드백을 두려워하지 않는 끈기와 겸손 - 끊임없는 학습을 통해 팀의 역량을 함께 높여 가는 자세 도전적인 문제를 함께 해결하며 성장하는 과정을 즐기는 분이라면, 그 기회가 여기 트웰브랩스에 있습니다. ABOUT THE TEAM TwelveLabs Machine Learning Engineering(MLE) 팀은 미국(US)과 한국(KR)으로 구성된 글로벌 팀으로, 상호 존중과 열린 피드백을 바탕으로 긴밀하게 협업하며 연구 성과가 실제 사용자 가치로 이어지도록 만드는 핵심 연결 고리의 역할을 합니다. MLE 팀은 내부 연구를 통해 개발된 AI 모델을 실제 제품으로 연결하는 End-to-End 구현과 운영을 책임집니다. 모델 트레이닝부터 서빙까지 전반적인 라이프사이클에 참여하며, 대규모 GPU 리소스(B300, H100, L40s 등)를 효율적으로 활용할 수 있는 시스템을 설계합니다. 또한 대규모 비디오 데이터를 안정적으로 처리하기 위한 데이터 파이프라인과 플랫폼을 구축해, 빠른 실험과 반복이 가능하도록 기반을 만듭니다. MLE 팀은 내부 모델 트레이닝 과정에도 직접 참여하며, 연구 결과가 더 빠르게 제품으로 이어질 수 있도록 개발 사이클을 지속적으로 개선합니다. 나아가 사용자 경험과 실제 니즈를 모델 개발에 꾸준히 반영함으로써, 제품과 모델이 함께 성장하는 선순환 구조를 만들어갑니다. 불확실성과 새로운 기술적 도전이 일상인 환경 속에서, 우리는 정답이 정해지지 않은 문제를 마주합니다. 그럴 때마다 빠르게 학습하고, 과감하게 실험하며, TwelveLabs의 팀과 제품의 목표에 가장 적합한 해법을 함께 만들어가는 팀입니다. ABOUT THE ROLE IN THIS ROLE, YOU WILL - TwelveLabs의 핵심 Video AI 역량이 실제 연구와 제품 환경에서 지속적으로 발전할 수 있도록, VLM systems와 video processing pipelines를 설계하고 구현합니다. - Researchers와 MLEs가 새로운 VLM 구조, 학습 방식, 실험 아이디어를 빠르게 검증할 수 있도록, VLM training / experimentation systems를 구축하고 개선합니다. - 개발된 VLM이 실제 제품으로 안정적으로 이어질 수 있도록, VLM serving / deployment systems를 설계하고 고도화합니다. - 대규모 비디오 데이터를 안정적으로 처리하기 위한 video processing pipelines를 구축하며, 모델 개발과 제품화를 동시에 뒷받침하는 기반을 만듭니다. - GPU / compute efficiency와 serving latency / throughput를 함께 고려하여, 대규모 VLM 및 video AI workloads를 위한 ML systems를 설계합니다. - Kubernetes 기반 환경에서 distributed training / serving systems를 개발하고, Python을 활용해 production-grade ML infrastructure를 구축합니다. - Research, Product, Infrastructure 팀과 긴밀히 협업하며, 연구 결과가 더 빠르게 실험되고 실제 제품에 반영될 수 있도록 end-to-end ML system을 발전시킵니다. - VLM과 video pipeline 전반을 아우르는 복잡한 ML system을 다루며, 새로운 문제를 빠르게 학습하고 확장해 나갑니다. YOU MAY BE A GOOD FIT IF YOU HAVE - 대규모 ML 시스템을 설계하고 구현한 경험이 있으신 분 - distributed training / serving 환경에서 시스템을 개발하거나 운영한 경험이 있으신 분 - Kubernetes 기반 환경에서 ML workload를 다뤄본 경험이 있으신 분 - Python을 활용해 production-grade ML system을 개발한 경험이 있으신 분 - VLM serving / deployment architecture 또는 유사한 대규모 ML serving architecture를 설계한 경험이 있으신 분 - GPU / compute efficiency와 serving latency / throughput이 중요한 시스템을 다뤄본 경험이 있으신 분 - 단순한 tooling 제공을 넘어, 복잡한 ML 시스템 설계를 실제 운영 가능한 형태로 끝까지 구현하는 execution에 강점이 있으신 분 - Video AI / VLM / multimodal ML system에 관심이 있거나, 해당 영역을 빠르게 학습하며 확장하고자 하는 의지가 있으신 분 PREFERRED QUALIFICATIONS - ML Infra / MLE 역할로 실제 시스템을 설계·구축해본 경험 - VLM training / experimentation systems를 구축하거나 개선한 경험 - VLM serving / deployment systems를 설계하거나 운영한 경험 - 대규모 비디오 데이터 처리 또는 video processing pipeline을 다뤄본 경험 - 모델 실험 환경과 production serving 환경을 함께 고려한 end-to-end ML system 경험 - serving / distributed systems 강점을 바탕으로 ML system domain으로 역할을 확장한 경험 - 새로운 도메인에 빠르게 적응하며, 익숙하지 않은 문제 영역까지 ownership을 넓혀간 경험 BENEFITS AND PERKS - 글로벌 B2B 고객과 함께 성장하는 Global Team - 자율성과 협업을 모두 갖춘 하이브리드 근무 - 전 직원에게 맥북 및 70만 원 상당 재택근무 장비 지원, 3년 주기로 최신 장비 교체 - 식사·교통비 등 자유롭게 사용할 수 있는 월 60만 원 한도 법인카드 제공 - 사무실 내 스낵바(간식, 커피, 신선식품 제공) - 연말 2주간 겨울방학 운영 - 연 1회 건강검진 지원 - 영어교육 프로그램 지원
Apply Now

Direct link to company career page

AI Resume Fit Check

See exactly which skills you match and which are missing before you apply. Free, instant, no spam.

Check my resume fit

Free · No credit card

Share