Skip to content

Installation

본 프로젝트를 로컬 환경에 직접 세팅하고 싶다면 다음 과정을 거칩니다:

1) Python 버전 및 패키지 확인 - Python 3.9 이상을 권장합니다. - torch, transformers, fastapi, streamlit 등이 필요하므로 "pip install -r requirements.txt" 형태로 일괄 설치할 수 있습니다.

2) CUDA 및 GPU 설정(옵션) - 딥러닝 모델 추론 속도를 높이려면 GPU가 필요합니다. - CUDA 드라이버 설치 상태를 "nvcc --version" 명령으로 확인하세요. - CUDA 버전이 적절하지 않다면, 공식 문서를 통해 업데이트합니다.

3) FastAPI 서버 실행 - "uvicorn api.main:app --host 0.0.0.0 --port 8000" 명령 등으로 백엔드 인퍼런스 서버를 띄울 수 있습니다.

4) Streamlit 앱 실행 - "streamlit run front/app.py" 명령으로 간단히 UI를 확인할 수 있습니다. - 텔레그램 봇 버전이나 Hailo-8 버전은 Iterations 섹션을 참고해주세요.

이 밖에도 Dockerfile, docker-compose.yaml 등을 통해 손쉽게 컨테이너 환경을 구성할 수 있으며, .env 파일에 정의된 환경 변수에 따라 동작 모드가 달라집니다.

Quickstart

프로젝트를 빠르게 경험해보기 위해서는 Docker Compose를 사용하시거나, 로컬 환경에서 직접 설치를 진행하시면 됩니다. 여기서는 Docker Compose 방식을 예시로 들어 간단한 사용 절차를 안내합니다.

1) Docker 설치 확인 - Linux 환경에서 apt-get install docker.io 등을 통해 Docker를 설치합니다. - Windows/Mac 사용자는 Docker Desktop으로 환경을 구성할 수 있습니다.

2) 소스 코드 클론 - "git clone [레포지토리 주소]" 명령으로 프로젝트를 가져옵니다.

3) 환경 변수 설정 (.env 파일) - .env.dev를 참고하여 필요한 값들을 정의해 둡니다.

4) Docker Compose 실행 - "docker compose up -d" 명령으로 Streamlit 혹은 inference 서버를 함께 띄울 수 있습니다. - 브라우저에서 http://localhost:8501 에 접속하면, 기본 UI를 확인할 수 있습니다.

5) 추가 기능 테스트 - 만약 텔레그램 봇이 구현된 버전을 사용하고 싶다면, iteration2.md를 참고해주세요. - Hailo-8 기반 추론 모델은 iteration3.md에서 자세히 다룹니다.

위 단계를 통해 간단하게 서비스를 체험해 보신 뒤, 설치 및 환경 세부사항은 installation.md에서 더 자세히 확인하실 수 있습니다.