**QDing (Void Editor)**는 Cursor, Windsurf, Replit AI를 뛰어넘는 것을 목표로 하는 차세대 오픈소스 AI 개발 도구입니다.
VS Code를 기반으로 구축되어 완전한 호환성을 제공하면서도, AI 에이전트와의 혁신적인 코드베이스 상호작용, 변경사항 체크포인트 및 시각화, 그리고 다양한 AI 모델 지원을 통해 개발자 경험을 혁신합니다.
- 🤖 지능형 AI 에이전트: 코드베이스 전체를 이해하고 상호작용하는 고급 AI 어시스턴트
- 🔒 완전한 프라이버시: 사용자 데이터를 보관하지 않고 AI 제공업체에 직접 메시지 전송
- 🌐 다중 AI 모델 지원: OpenAI, Anthropic, Mistral, Groq, Ollama, Google Gemini 등
- 💻 로컬 AI 지원: Ollama를 통한 완전한 오프라인 개발 환경
- 📊 변경사항 시각화: 코드 변경을 체크포인트로 관리하고 시각적으로 추적
- 🔧 VS Code 완전 호환: 기존 확장, 설정, 워크플로우 그대로 사용 가능
- TypeScript/JavaScript: 핵심 로직 및 VS Code 확장
- React 19.1.0: 사용자 인터페이스 컴포넌트
- Monaco Editor: 고급 코드 편집기
- Electron: 데스크톱 애플리케이션 프레임워크
- Rust: 고성능 CLI 도구 및 네이티브 모듈
- Node.js: 백엔드 서비스 및 확장 호스팅
- WebSocket: 실시간 통신
- 다중 LLM SDK: OpenAI, Anthropic, Mistral, Groq 등
- MCP (Model Context Protocol): 도구 통합 및 확장성
- 스트리밍 응답: 실시간 AI 응답 처리
- Node.js 20.x 이상
- Python 3.8 이상 (선택사항)
- Rust 1.70 이상 (개발용)
- 레포지토리 클론
git clone https://github.com/voideditor/void.git
cd void- 의존성 설치
npm install- React 컴포넌트 빌드
npm run buildreact- 개발 모드 실행
npm run watch- Electron 앱 실행
npm run electron- OpenAI: 설정에서 API 키 입력
- Anthropic: Claude API 키 설정
- 로컬 모델: Ollama 설치 후 모델 다운로드
# Ollama 설치 (macOS/Linux)
curl -fsSL https://ollama.ai/install.sh | sh
# 모델 다운로드 예시
ollama pull codellama
ollama pull llama2- 컨텍스트 인식: 전체 프로젝트 구조 이해
- 코드 생성: 자연어로 복잡한 코드 구현
- 리팩토링: 코드 품질 개선 제안
- 버그 수정: 자동 오류 감지 및 수정
Ctrl+K: 빠른 인라인 편집- 선택한 코드 블록 수정
- 실시간 미리보기
- 컨텍스트 기반 제안
- 다국어 지원
- 커스텀 스니펫
- AI와 터미널 상호작용
- 명령어 생성 및 실행
- 오류 자동 해결
- 고급 컨텍스트 관리: 프로젝트 전체 이해도 향상
- 성능 최적화: 응답 시간 50% 단축
- 플러그인 시스템: 커스텀 AI 도구 생성
- 협업 기능: 실시간 페어 프로그래밍
- CI/CD 통합: 자동 테스트 생성 및 배포
- 코드 리뷰 AI: 자동 코드 품질 검사
- 모바일 지원: 태블릿/모바일 개발 환경
- 자율 개발 에이전트: 완전 자동화된 기능 구현
- 클라우드 동기화: 설정 및 프로젝트 클라우드 백업
- AI 모델 훈련: 사용자 맞춤형 모델 생성
- 엔터프라이즈 기능: 팀 관리 및 보안 강화
QDing 프로젝트에 기여해주세요! 모든 수준의 개발자를 환영합니다.
자세한 코드베이스 가이드는 VOID_CODEBASE_GUIDE를 참고하세요.
pip install vllm
python -m vllm.entrypoints.openai.api_server
--model deepseek-ai/deepseek-coder-6.7b-instruct
--tokenizer deepseek-ai/deepseek-coder-6.7b-instruct
--tensor-parallel-size 2
--max-model-len 16384
--gpu-memory-utilization 0.9
--enforce-eager
python -m vllm.entrypoints.openai.api_server
--model Qwen/Qwen2.5-Coder-7B-Instruct
--tokenizer Qwen/Qwen2.5-Coder-7B-Instruct
--tensor-parallel-size 2
--max-model-len 32768
--gpu-memory-utilization 0.9
python -m vllm.entrypoints.openai.api_server
--model mistralai/Codestral-22B-v0.1
--tokenizer mistralai/Codestral-22B-v0.1
--tensor-parallel-size 1
--max-model-len 32768
--gpu-memory-utilization 0.9
--enable-prefix-caching
python -m vllm.entrypoints.openai.api_server
--model mistralai/Codestral-22B-v0.1
--tokenizer mistralai/Codestral-22B-v0.1
--tensor-parallel-size 2
--max-model-len 32768
--gpu-memory-utilization 0.9
huggingface-cli login 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
- 개발자 환경 세팅 - compile vs watch