음성 모델과 언어 모델을 기반으로 음성인식 및 자연어 이해 기술을 개발하고, 이를 다양한 서비스와 고객 환경에 적용할 수 있도록 플랫폼 형태로 구축 및 운영하고 있습니다.
단순 기능 개발을 넘어,
대화형 AI 기술이 실제 서비스 환경에서 안정적으로 동작할 수 있도록
모델 서빙, 성능 최적화, 운영 자동화까지 포함한 End-to-End 플랫폼을 담당합니다.
또한, 내부 서비스뿐만 아니라 다양한 외부 고객사에 기술을 제공하기 위한
확장할 수 있는 구조와 운영 체계를 지속적으로 고도화하고 있습니다.
대화형 플랫폼에서 사용되는 음성 모델(ASR/TTS) 및 언어 모델(LM)의
서빙, 운영, 최적화 및 플랫폼 구축을 담당합니다.
본 포지션은 서비스 개발이 아닌, 모델이 안정적으로 동작할 수 있도록 하는 플랫폼 및 개발, 운영 영역에 집중합니다.
[이런 일을 해요!]
1. 음성 및 LM 모델 운영 (Core)
- ASR / TTS 모델 서빙 환경 구축 및 운영
- LM 기반 대화 처리 구조 운영 및 최적화
- 음성 → LM → 응답 → TTS 파이프라인 안정화
- 실시간 음성 처리 및 스트리밍 구조 개선
2. 성능 최적화 (핵심 역할)
- 음성 처리 및 응답 지연 최소화 (Latency tuning)
- On-device / Embedded 환경 최적화 (CPU 기반)
- 모델 경량화 및 리소스 최적화
- 실시간 처리 안정성 확보
3. 모델 서빙 및 플랫폼 구축
- 추론 서버 또는 모델 서빙 아키텍처 설계
- 모델 배포 및 버전 관리 체계 구축
- 장애 대응 및 운영 자동화
4. 데이터 및 품질 관리
- 음성/텍스트 데이터 기반 성능 개선
- OOV 및 발화 사전 관리
- 인식률 및 발화 품질 개선
- 평가 및 검증 프로세스 운영
5. (우대) LLM 연계 및 확장
- LLM 기반 기능 연동 (Fallback, QA, RAG 등)
- Prompt 기반 응답 제어
- Guardrails 적용 및 실험
- 음성 AI 시스템 운영 경험 (ASR 또는 TTS)을 가지신 분
- LM 기반 대화 시스템 또는 NLP 처리 경험을 보유하신 분
- Python 기반 모델 서빙 및 운영 경험을 보유하신 분
- Linux 환경에서의 시스템 운영 및 디버깅 경험이 있으신 분
- 실시간 처리 시스템 이해(Latency, Streaming)가 높으신 분
- 풀타임 근무가 가능하신 분
- 병역필 또는 면제자로 해외 출장에 결격 사유가 없는 분
- LLM 기반 시스템 경험 (RAG, Prompt Engineering 등)이 있으신 분
- On-device AI 최적화 경험(TF Lite, ONNX 등)을 가지신 분
- 음성 신호 처리 및 오디오 파이프라인 이해도가 있으신 분
- Kubernetes / Docker 기반 운영 경험을 보유하신 분

※ 세부 채용프로세스는 변경될 수 있습니다. 변동이 있는 경우 별도 안내를 드리고 있습니다.
※ 경우에 따라 인터뷰가 추가되거나, 인터뷰가 한차례로 통합되어 진행될 수 있습니다.
※ 지원자님의 경험, 업무, 지향점 등을 충분히 검토 후 더 적합한 포지션으로 배치될 수 있습니다.
※ 지원서에 기재된 학력 및 경력사항 등 기재사항이 허위임이 판명될 경우, 합격이 취소될 수 있습니다.
음성 모델과 언어 모델을 기반으로 음성인식 및 자연어 이해 기술을 개발하고, 이를 다양한 서비스와 고객 환경에 적용할 수 있도록 플랫폼 형태로 구축 및 운영하고 있습니다.
단순 기능 개발을 넘어,
대화형 AI 기술이 실제 서비스 환경에서 안정적으로 동작할 수 있도록
모델 서빙, 성능 최적화, 운영 자동화까지 포함한 End-to-End 플랫폼을 담당합니다.
또한, 내부 서비스뿐만 아니라 다양한 외부 고객사에 기술을 제공하기 위한
확장할 수 있는 구조와 운영 체계를 지속적으로 고도화하고 있습니다.
대화형 플랫폼에서 사용되는 음성 모델(ASR/TTS) 및 언어 모델(LM)의
서빙, 운영, 최적화 및 플랫폼 구축을 담당합니다.
본 포지션은 서비스 개발이 아닌, 모델이 안정적으로 동작할 수 있도록 하는 플랫폼 및 개발, 운영 영역에 집중합니다.
[이런 일을 해요!]
1. 음성 및 LM 모델 운영 (Core)
- ASR / TTS 모델 서빙 환경 구축 및 운영
- LM 기반 대화 처리 구조 운영 및 최적화
- 음성 → LM → 응답 → TTS 파이프라인 안정화
- 실시간 음성 처리 및 스트리밍 구조 개선
2. 성능 최적화 (핵심 역할)
- 음성 처리 및 응답 지연 최소화 (Latency tuning)
- On-device / Embedded 환경 최적화 (CPU 기반)
- 모델 경량화 및 리소스 최적화
- 실시간 처리 안정성 확보
3. 모델 서빙 및 플랫폼 구축
- 추론 서버 또는 모델 서빙 아키텍처 설계
- 모델 배포 및 버전 관리 체계 구축
- 장애 대응 및 운영 자동화
4. 데이터 및 품질 관리
- 음성/텍스트 데이터 기반 성능 개선
- OOV 및 발화 사전 관리
- 인식률 및 발화 품질 개선
- 평가 및 검증 프로세스 운영
5. (우대) LLM 연계 및 확장
- LLM 기반 기능 연동 (Fallback, QA, RAG 등)
- Prompt 기반 응답 제어
- Guardrails 적용 및 실험
- 음성 AI 시스템 운영 경험 (ASR 또는 TTS)을 가지신 분
- LM 기반 대화 시스템 또는 NLP 처리 경험을 보유하신 분
- Python 기반 모델 서빙 및 운영 경험을 보유하신 분
- Linux 환경에서의 시스템 운영 및 디버깅 경험이 있으신 분
- 실시간 처리 시스템 이해(Latency, Streaming)가 높으신 분
- 풀타임 근무가 가능하신 분
- 병역필 또는 면제자로 해외 출장에 결격 사유가 없는 분
- LLM 기반 시스템 경험 (RAG, Prompt Engineering 등)이 있으신 분
- On-device AI 최적화 경험(TF Lite, ONNX 등)을 가지신 분
- 음성 신호 처리 및 오디오 파이프라인 이해도가 있으신 분
- Kubernetes / Docker 기반 운영 경험을 보유하신 분

※ 세부 채용프로세스는 변경될 수 있습니다. 변동이 있는 경우 별도 안내를 드리고 있습니다.
※ 경우에 따라 인터뷰가 추가되거나, 인터뷰가 한차례로 통합되어 진행될 수 있습니다.
※ 지원자님의 경험, 업무, 지향점 등을 충분히 검토 후 더 적합한 포지션으로 배치될 수 있습니다.
※ 지원서에 기재된 학력 및 경력사항 등 기재사항이 허위임이 판명될 경우, 합격이 취소될 수 있습니다.