Skip to content

quantumaikr/qding-edu

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

QDing (Void Editor) - 차세대 오픈소스 AI 개발 도구

🚀 소개

**QDing (Void Editor)**는 Cursor, Windsurf, Replit AI를 뛰어넘는 것을 목표로 하는 차세대 오픈소스 AI 개발 도구입니다.

VS Code를 기반으로 구축되어 완전한 호환성을 제공하면서도, AI 에이전트와의 혁신적인 코드베이스 상호작용, 변경사항 체크포인트 및 시각화, 그리고 다양한 AI 모델 지원을 통해 개발자 경험을 혁신합니다.

✨ 핵심 특징

  • 🤖 지능형 AI 에이전트: 코드베이스 전체를 이해하고 상호작용하는 고급 AI 어시스턴트
  • 🔒 완전한 프라이버시: 사용자 데이터를 보관하지 않고 AI 제공업체에 직접 메시지 전송
  • 🌐 다중 AI 모델 지원: OpenAI, Anthropic, Mistral, Groq, Ollama, Google Gemini 등
  • 💻 로컬 AI 지원: Ollama를 통한 완전한 오프라인 개발 환경
  • 📊 변경사항 시각화: 코드 변경을 체크포인트로 관리하고 시각적으로 추적
  • 🔧 VS Code 완전 호환: 기존 확장, 설정, 워크플로우 그대로 사용 가능

🛠️ 기술 스택

프론트엔드

  • TypeScript/JavaScript: 핵심 로직 및 VS Code 확장
  • React 19.1.0: 사용자 인터페이스 컴포넌트
  • Monaco Editor: 고급 코드 편집기
  • Electron: 데스크톱 애플리케이션 프레임워크

백엔드

  • Rust: 고성능 CLI 도구 및 네이티브 모듈
  • Node.js: 백엔드 서비스 및 확장 호스팅
  • WebSocket: 실시간 통신

AI 통합

  • 다중 LLM SDK: OpenAI, Anthropic, Mistral, Groq 등
  • MCP (Model Context Protocol): 도구 통합 및 확장성
  • 스트리밍 응답: 실시간 AI 응답 처리

🚀 시작하기

필수 요구사항

  • Node.js 20.x 이상
  • Python 3.8 이상 (선택사항)
  • Rust 1.70 이상 (개발용)

설치 방법

  1. 레포지토리 클론
git clone https://github.com/voideditor/void.git
cd void
  1. 의존성 설치
npm install
  1. React 컴포넌트 빌드
npm run buildreact
  1. 개발 모드 실행
npm run watch
  1. Electron 앱 실행
npm run electron

AI 모델 설정

  1. OpenAI: 설정에서 API 키 입력
  2. Anthropic: Claude API 키 설정
  3. 로컬 모델: Ollama 설치 후 모델 다운로드
# Ollama 설치 (macOS/Linux)
curl -fsSL https://ollama.ai/install.sh | sh

# 모델 다운로드 예시
ollama pull codellama
ollama pull llama2

🎯 주요 기능

1. 지능형 코드 어시스턴트

  • 컨텍스트 인식: 전체 프로젝트 구조 이해
  • 코드 생성: 자연어로 복잡한 코드 구현
  • 리팩토링: 코드 품질 개선 제안
  • 버그 수정: 자동 오류 감지 및 수정

2. 인라인 편집

  • Ctrl+K: 빠른 인라인 편집
  • 선택한 코드 블록 수정
  • 실시간 미리보기

3. 스마트 자동완성

  • 컨텍스트 기반 제안
  • 다국어 지원
  • 커스텀 스니펫

4. 터미널 통합

  • AI와 터미널 상호작용
  • 명령어 생성 및 실행
  • 오류 자동 해결

🗺️ 로드맵 및 개선 방향

단기 목표 (3-6개월)

  • 고급 컨텍스트 관리: 프로젝트 전체 이해도 향상
  • 성능 최적화: 응답 시간 50% 단축
  • 플러그인 시스템: 커스텀 AI 도구 생성

중기 목표 (6-12개월)

  • 협업 기능: 실시간 페어 프로그래밍
  • CI/CD 통합: 자동 테스트 생성 및 배포
  • 코드 리뷰 AI: 자동 코드 품질 검사
  • 모바일 지원: 태블릿/모바일 개발 환경

장기 목표 (1년+)

  • 자율 개발 에이전트: 완전 자동화된 기능 구현
  • 클라우드 동기화: 설정 및 프로젝트 클라우드 백업
  • AI 모델 훈련: 사용자 맞춤형 모델 생성
  • 엔터프라이즈 기능: 팀 관리 및 보안 강화

🤝 기여하기

QDing 프로젝트에 기여해주세요! 모든 수준의 개발자를 환영합니다.

개발 가이드

자세한 코드베이스 가이드는 VOID_CODEBASE_GUIDE를 참고하세요.

vLLM 설치 및 실행 가이드

pip install vllm

python -m vllm.entrypoints.openai.api_server
--model deepseek-ai/deepseek-coder-6.7b-instruct
--tokenizer deepseek-ai/deepseek-coder-6.7b-instruct
--tensor-parallel-size 2
--max-model-len 16384
--gpu-memory-utilization 0.9
--enforce-eager

python -m vllm.entrypoints.openai.api_server
--model Qwen/Qwen2.5-Coder-7B-Instruct
--tokenizer Qwen/Qwen2.5-Coder-7B-Instruct
--tensor-parallel-size 2
--max-model-len 32768
--gpu-memory-utilization 0.9

Codestral-22B-v0.1 (코드 특화 모델) - 22GB VRAM 권장

python -m vllm.entrypoints.openai.api_server
--model mistralai/Codestral-22B-v0.1
--tokenizer mistralai/Codestral-22B-v0.1
--tensor-parallel-size 1
--max-model-len 32768
--gpu-memory-utilization 0.9
--enable-prefix-caching

python -m vllm.entrypoints.openai.api_server
--model mistralai/Codestral-22B-v0.1
--tokenizer mistralai/Codestral-22B-v0.1
--tensor-parallel-size 2
--max-model-len 32768
--gpu-memory-utilization 0.9

huggingface-cli login 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

기능 검토 사항

  • 개발자 환경 세팅 - compile vs watch

About

qding-edu

Resources

License

Apache-2.0, Unknown licenses found

Licenses found

Apache-2.0
LICENSE.txt
Unknown
LICENSE-VS-Code.txt

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors