AI 모델들의 성능을 실시간으로 비교할 수 있는 웹 애플리케이션입니다. AWS Bedrock에서 제공하는 Foundation Model들을 기반으로 작동합니다.
- Anthropic Claude 3 (Sonnet, Haiku)
- Meta Llama 3
- Amazon (Titan, Nova)
- 기타 AWS Bedrock에서 제공하는 모델들
- 최대 4개의 AI 모델 동시 비교
- 실시간 스트리밍 응답
- 이미지 분석 지원 (모델 지원 시)
- 시스템 프롬프트 커스터마이징
- 다크모드 지원
- Next.js 14
- TypeScript
- TailwindCSS
- ShadcnUI
- Framer Motion
- Python
- FastAPI
- AWS Bedrock
- 백엔드 의존성 설치
cd backend
pip install -r requirements.txt
- 환경 변수 설정
# Windows
copy backend\.env.template backend\.env
# Mac/Linux
cp backend/.env.template backend/.env
.env
파일에서 AWS 인증 정보 설정
AWS_ACCESS_KEY_ID=your_access_key
AWS_SECRET_ACCESS_KEY=your_secret_key
AWS_REGION=us-west-2
AWS_TEMPERATURE=0
AWS_MAX_TOKENS=1024
- 백엔드 서버 실행 (새 터미널에서)
cd backend
uvicorn app.main:app --reload
- 프론트엔드 의존성 설치
cd frontend
npm install
npm install framer-motion @tsparticles/slim @tsparticles/react @tsparticles/engine
- 프론트엔드 개발 서버 실행 (새 터미널에서)
cd frontend
npm run dev
- 브라우저에서 http://localhost:3000 접속
모든 AI 모델 정보는 backend/app/config/models.yaml
파일에서 관리됩니다.
새로운 모델을 추가하려면 이 파일을 수정하세요:
providers:
anthropic:
name: Anthropic
icon: anthropic.svg
models:
claude-3-sonnet:
id: anthropic.claude-3-sonnet-20240229-v1:0
name: Claude 3 Sonnet
capabilities:
- text
- image
.
├── frontend/ # Next.js 프론트엔드
│ ├── components/
│ │ └── chat/ # 채팅 관련 컴포넌트
│ └── ...
├── backend/
│ ├── app/
│ │ ├── main.py # FastAPI 진입점
│ │ ├── services/ # 비즈니스 로직
│ │ └── config/
│ │ └── models.yaml # 모델 설정 파일
│ └── static/ # 정적 파일 (아이콘 등)
└── ...
Docker를 사용하여 애플리케이션을 실행할 수 있습니다.
-
환경 설정
# backend/.env 파일 설정 cp backend/.env.template backend/.env # backend/.env 파일을 열어 AWS 자격 증명 정보 입력
-
Docker Compose로 실행
# 컨테이너 빌드 및 실행 docker-compose up --build # 또는 백그라운드에서 실행 docker-compose up --build -d
-
접속
- 프론트엔드: http://localhost:3001
- 백엔드: http://localhost:8001
-
컨테이너 중지
docker-compose down
- Docker 실행 시에는 별도의 로컬 환경 설정이 필요하지 않습니다.
- 로컬 실행과 Docker 실행은 독립적으로 작동합니다.