팀 회의록 - 2026-01-09
회의 기본 정보
날짜: 2026-01-09 시간: 09:00 ~ 10:10 (총 60분) 회의 유형: 참석자: 김명환, 김민혁, 박지윤, 이건희, 이솔형 회의 주도: 박지윤
회의 목적
프로젝트 진행상황 간단 공유
주요 안건 및 논의사항
1. 진행 현황 공유
각자 진행 상황:
- 김명환: 서빙 서버 구축
- 김민혁: 텍스트 처리 개선
- 박지윤: 진행 상황 체크 및 일정 관리
- 이건희: 백에드/프론트-AI 연동
- 이솔형: 배경 생성 및 합성
2. 핵심 논의사항
주요 이슈:
- 서빙 서버 Docker 이미지로 구성 완료
- Docker 빌드 시 기본 이미지와 모델 레이어로 용량 급증
- 초기 빌드 시 60GB이상, 안정적으로는 150GB 이상 여유 공간 필요
- /opt/huggingface 경로에 모델 볼륨 마운트
- 현재 서빙 서버는 8000번 포트에서 정상 동작
- 중복 실행 불가, 실행 전 docker ps 확인 필요
- Rest API 기반, 한 작업당 최대 20분 이상 소요, 동기 처리 불가
- MCP 서버를 Docker로 분리 시도 중
- 기존에는 MCP 서버와 AI 서빙 서버가 너무 직접적으로 결합되어 콘솔 출력 기반으로 서버 분리가 어려움
- 현재 MCP 서버는 3000번 포트, AI 서빙 서버는 8000번 포트
- MCP는 선택 사항으로 두고 RestAPI 만으로도 과제 진행 가능
- LLM/MCP 단계에서는 파일 경로만 전달, 실제 이미지(Base64)는 서빙 서버 내부에서만 처리
- 이미지를 Base64로 LLM 프롬프트에 포함하면 데이터 과대로 토큰 폭증과 비용/성능 문제
- 이미지 Base64 변환 시 1.3~1.5배 용량 증가와 LLM 컨텍스트 한계 초과 위험 때문
- OCR(텍스트 제거)와 Inpainting 작업은 1차로 LLaMA 기반, 2차로 SDXL 기반 refinement
- 글자 제거 품질 유의미하게 개선되었지만 아직 부자연스러움이 남아있어 추가 개선 진행
- llama_only 옵션 활용하여 지우개처럼 선택 영역 재생성
- LLaMA 양자화 미적용, 용량 추후 확인 예정
- L4 GPU 환경에서 VRAM 실사용은 22GB 정도 이므로 단계별로 모델 언로드/로드 필요
- 추후 파이프라인에 통합 예정
- FastAPI 서버 로컬 실행 시 일부 오류 수정하여 성공
- AI 서빙 서버와 연결 구조 파악 중
- Docker 컨테이너를 백엔드, AI 서빙 서버로 분리하는 것을 목표로 진행
- 흐름: 프론트 -> 백엔드 -> AI 컨테이너 (RestAPI) -> 결과 수신 -> 프론트 표시
- Dockerfile 공유 이후 빠른 연동 가능 예상
- 배경 생성 후 제품 합성 시 톤·그림자·경계 디테일 개선 진행 중
- 자동 배치 로직, 배경과 제품 조화 강화 작업 중
- 개발 환경은 개발 단계에서는 Conda 가능, 배포/통합 단계에서는 pip + uvicorn 사용
논의된 해결방안:
팀 결정사항:
역할 분담 및 액션 아이템
| 담당자 | 업무 | 마감일 | 우선순위 |
|---|---|---|---|
| 00/00 |
다음 회의
일정: 2026-01-12 09:00
안건:
준비사항:
기타 사항
참고 링크:
공유 자료:
특이사항: 1월 15일 중간 발표
작성자: 박지윤 작성 시간: