모임 개요
- 일시: 2025년 04월 18일 16:30 ~ 19:30
- 장소: 복지관 311
- 참가자 명단: 전원 참가
- 사진


-
김종민
공부한 내용:
- 음성·텍스트·영상 데이터를 함께 학습시키는 방법을 실험해 보았습니다.
- 미리 훈련된 음성 모델(Wav2Vec)을 사용해 TTS 성능이 어떻게 달라지는지 확인했습니다.
- 모델이 어디에 집중하는지 눈으로 볼 수 있는 ‘어텐션 맵’을 살펴보았습니다.
소감:
- 어텐션 맵 덕분에 모델이 중요한 부분을 잘 배우는 걸 알게 되어, 다음 튜닝 방향이 더 분명해졌어요.
-
김성호
공부한 내용:
- Docker로 컨테이너를 만들고, Kubernetes로 자동 확장해 보았습니다.
- ONNX 변환 후 모델 속도를 2배쯤 올려 보았습니다.
- gRPC 프로토콜로 짧은 지연(latency) 스트리밍 서비스를 테스트했습니다.
소감:
- 컨테이너와 최적화 덕분에 서비스가 더 빠르고 안정적으로 돌아가는 걸 느꼈습니다.
-
정성원
공부한 내용:
- Prometheus와 Grafana를 연결해 지연 시간과 오류를 실시간으로 모니터링했습니다.
- 문제가 생기면 자동으로 알려주고 재시도(retry)하게 설정해 보았습니다.
- 새 버전을 소수에게만 먼저 배포하는 “Canary 배포”를 직접 실습했습니다.
소감:
- 모니터링과 자동 배포 덕분에, 장애 발생 시에도 빠르게 대응할 수 있어서 안심이 됐습니다.
-
박수연
공부한 내용:
- 사람의 귀에 더 잘 맞는 ‘Perceptual Loss’를 이용해 음질 개선을 시도했습니다.
- 사용자 설문(MOS)과 객관적 수치(PESQ)를 함께 비교해 모델 품질을 평가했습니다.
- 주파수별 가중치를 줘서 잡음을 더 잘 제거하는 전처리 파이프라인을 만들어 보았습니다.
소감:
- 주관적 평가와 객관적 지표를 같이 보니, 진짜 음질 개선이 잘됐는지를 정확히 알 수 있었어요.
-
한준교
공부한 내용:
- Flutter 앱에 경량화된 TTS 모델을 넣고 실시간 음성 합성을 해 보았습니다.
- 모델 크기를 절반 이하로 줄이는 Quantization 기법을 적용했습니다.
- 스마트폰에서 지연 시간을 측정하고, 사용자 경험(UX)을 조금씩 다듬어 보았습니다.
소감:
- 모바일에서도 빠르고 자연스럽게 음성이 나오는 걸 보고, 경량화 작업의 가치를 실감했습니다.