👋 우리 팀을 소개합니다
Core Research 팀은 NetsPresso의 Trainer, Compressor, Converter 등 주요 모듈의 핵심 기술을 연구하고 개발합니다. HW-aware AI 모델 학습, 새로운 경량화 기법 개발, 다양한 엣지 디바이스 호환 기술을 중심으로, NetsPresso의 전반적인 성능과 범용성을 향상시키는 데 집중하고 있습니다.
📌 해당 포지션으로 합류하신다면
Quantization Research Engineer는 NetsPresso의 Converter 모듈에서 핵심 역할을 수행하는 양자화 기술을 연구하고 제품화합니다. NetsPresso 기반으로 On-device AI 모델을 최적화하고, 노타만의 고유한 Quantization 기법을 설계하며, 배포 파이프라인의 성능을 높이는 데 기여하게 됩니다.
📙성과 및 관련 자료 보기
✅ 주요 업무
- Quantization 기술 연구 및 제품화
- 다양한 딥러닝 모델 대상의 Post-training quantization 및 Quantization-aware training
- Generative AI(stable diffusion, LLM 등), Computer Vision(분류, 탐지, 세분화 등), 기타 다양한 AI 모델에 적용
- On-device AI 모델 최적화 및 변환
- TensorRT, TensorFlow Lite 등 다양한 프레임워크를 활용한 모델 최적화 및 변환 작업
✅ 자격요건
- 관련 분야 실무 경력 2년 이상 또는 이에 준하는 역량 보유
- 컴퓨터공학, 전자공학 등 관련 전공 학사 이상 학위 소지자
- PyTorch 기반 딥러닝 모델 최적화 경험 보유자
- 석사 이상 학위 소지자는 해당 분야 2년 이상의 경력 필수
- 해외 여행에 결격 사유가 없는 분
✅ 우대사항
- Quantization, 모델 압축, 커널 최적화 관련 연구 및 개발 경험
- TensorRT, TensorFlow Lite, ArmNN 등 라이브러리를 활용한 모델 최적화 경험
- 저정밀(저비트) 모델을 Embedded Device에 포팅한 경험
- TVM, Glow, nGraph, XLA 등 ML/DL 컴파일러 활용 경험
- 딥러닝 모델 최적화 관련 논문 발표 경험
✅ 채용절차
- 서류 검토 → 스크리닝 인터뷰 → 코딩 테스트/과제 → 1차 인터뷰 → 2차 인터뷰
(절차 간에 추가 과제가 포함될 수 있습니다)
🤓 팀의 메세지
새로운 기술에 대한 높은 관심과 아이디어를 실제로 구현해내는 실행력이 중요합니다. 단순한 연구에 그치지 않고, NetsPresso 서비스와 직접 연결되는 독자적인 양자화 기술을 개발하는 포지션입니다. 각 모듈이 유기적으로 연결되어 있는 만큼, 팀 내 활발한 소통과 주도적인 태도를 무엇보다 중요하게 생각합니다. 복잡한 기술적 문제를 깊이 있게 파고들고, 협업을 통해 함께 성장하고 싶은 분이라면 이 팀에서 분명 좋은 성과를 낼 수 있을 것입니다.
지원 전, 확인해주세요! 👀
- 해당 공고는 상시 채용으로, 채용 완료 시 조기 마감될 수 있습니다.
- 이력서에 연봉 정보 등 민감한 개인 정보가 포함되지 않도록 확인 부탁드립니다.
- 제출해 주신 내용 중 허위 사실이 있을 경우 채용이 취소될 수 있습니다.
- 채용 전 레퍼런스 체크가 있음을 알려드립니다.
- 최종 인터뷰 합격 시 별도로 처우를 협의합니다.
- 입사 후 시용기간이 있으며, 이에 대한 처우는 차등을 두지 않음을 알려드립니다.
- 국가보훈대상자 및 장애인은 관련 법규에 의거하여 우대합니다.
- R&D 모든 포지션에서 전문연구요원 (신규 편입, 전직) 가능합니다.
🔎 읽어보면 도움 되는 관련 자료