하나의 명령을 받아 스스로 코드를 짜고 실행하는 로컬 자율 에이전트.
3개의 LLM이 팀으로 일하고, 기억은 Obsidian 호환 마크다운으로 남습니다.
외부 API 키 없이도 로컬에서 동작하지만, 필요하면 OpenAI·Anthropic 모델도 동시 등록해 슬롯 단위로 갈아 끼울 수 있습니다.
임무를 받으면 Python 스크립트를 직접 작성해 격리된 샌드박스에서 실행합니다. 실패 시 에러를 분석해 자동 재시도.
Planner가 계획을 세우고, Coder가 단계별로 코드를 짜 실행하고, Reviewer가 결과를 한국어 보고서로 정리합니다.
모든 임무·대화가 ~/.bkr-agent/vault/ 마크다운으로 남고 [[wikilink]]로 자동 연결됩니다. Obsidian.app으로 같은 폴더를 vault로 열면 그래프 뷰까지 무료.
ChromaDB가 마크다운 본문을 인덱싱해 새 임무에 유사한 과거 경험을 자동 회상. 유사도 임계값으로 무관한 회상은 차단.
브라우저 채팅 UI(사이드바·대화 히스토리·음성/파일 입력)와 텔레그램 봇이 같은 메모리를 공유. 어디서든 호출 가능.
기본 추론은 Ollama 로컬 모델. 코드 실행은 OS-레벨 CPU/프로세스 limit이 걸린 임시 디렉토리. 데이터는 모두 사용자 디스크에.
RAM이 적어도 Groq 무료 API 키 하나로 Llama 3.3 70B를 500 tok/s로 사용. 설정 → 받기/연결 탭에서 클릭 한 번으로 등록.
한 단계 위의 시스템. 메인 → 팀장 → 팀원 3계층 멀티 에이전트가 5채널로 협업합니다. 사용자는 모든 채널의 대화를 아무도 모르게 들여다볼 수 있는 관찰자.
사용자 의뢰를 받아 자동 분류 (단순 응답 vs 팀 작업). 결과를 검토 후 한국어 보고.
메인에서 받은 임무를 단계로 분해해 팀원에게 위임. 결과를 통합 검토.
각자 다른 LLM 슬롯 사용 가능. 페르소나·기술 자유 편집. UI에서 클릭 한 번으로 추가/제거.
5채널 (개인 비서 · 이사회 · 팀별 회의 · 전략 회의 · 전체 회의) 어느 곳이든 자동 폴링. 에이전트는 사용자 관찰을 모름.
팀 모드 한 사이클입니다. 임무가 들어오면 세 LLM이 차례로 일을 나눠 갖고, 결과는 모두 vault에 노트로 쌓입니다.
Python 3.10 이상이 있으면 어디서나 설치됩니다. 운영체제를 선택하세요.
# 1. 저장소 클론 후 설치 스크립트 실행 git clone <repo-url> bkr-agent && cd bkr-agent ./install.sh # 2. (권장) 로컬 LLM 설치 — Ollama brew install ollama ollama pull llama3 # 4.7GB, 빠름 ollama pull qwen2.5:7b # 4.4GB, 한국어/코드 강함 # 3. 실행 bkr-agent serve # http://127.0.0.1:8765
# 1. 저장소 클론 후 설치 스크립트 실행 git clone <repo-url> bkr-agent && cd bkr-agent ./install.sh # 2. Ollama 설치 (한 줄) curl -fsSL https://ollama.com/install.sh | sh ollama pull llama3 # 3. 실행 bkr-agent serve
# 1. PowerShell에서 설치 스크립트 실행 git clone <repo-url> bkr-agent cd bkr-agent powershell -ExecutionPolicy Bypass -File install.ps1 # 2. Ollama 설치 — https://ollama.com/download/windows ollama pull llama3 # 3. 실행 bkr-agent serve
# 패키지로 직접 설치 (모든 OS 공통) cd bkr-agent pip install ".[all]" # 모든 기능 pip install ".[telegram]" # 텔레그램만 추가 pip install "." # 핵심만 (Ollama 전용) # 권장: pipx로 격리 설치 pipx install ".[all]"
설치 후 명령 한 줄로 다섯 가지를 할 수 있습니다.
bkr-agent serve
브라우저에서 http://127.0.0.1:8765/app 으로 접속. 사이드바·대화 히스토리·음성/파일 입력 모두 사용 가능.
bkr-agent telegram
~/.bkr-agent/config.json에 봇 토큰과 본인 user id를 등록한 뒤 실행. 텔레그램에서 텍스트·파일·음성으로 동일하게 명령.
bkr-agent run "임무"
대화 UI 없이 명령 한 줄. 결과만 stdout으로 받음. 스크립트나 cron에서 쓰기 좋음.
bkr-agent models
등록된 LLM 슬롯 목록. Ollama·OpenAI·Anthropic 백엔드 중 키가 있는 것만 자동 활성화.
bkr-agent config
~/.bkr-agent/config.json 위치와 내용 표시. 첫 실행 시 기본 설정이 자동 생성됩니다.
open ~/.bkr-agent/vault
vault 폴더를 Obsidian.app에서 열면 모든 임무·대화가 그래프로 보임. 직접 노트를 편집해도 다음 RAG에 반영됩니다.
~/.bkr-agent/config.json — 멀티 LLM 슬롯과 팀 역할, 텔레그램, 서버 포트를 한 파일에서.
{
"default_slot": "Llama 3 (로컬)",
"models": [
{"name": "Llama 3 (로컬)", "backend": "ollama", "model": "llama3:latest"},
{"name": "Qwen 2.5 (로컬)", "backend": "ollama", "model": "qwen2.5:7b"},
{"name": "GPT-4o mini", "backend": "openai", "model": "gpt-4o-mini"},
{"name": "Claude Sonnet", "backend": "anthropic", "model": "claude-sonnet-4-5"}
],
"team": {
"planner": "Llama 3 (로컬)",
"coder": "Qwen 2.5 (로컬)",
"reviewer": "Claude Sonnet"
},
"telegram": {
"token": "<@BotFather에서 받은 토큰>",
"allowed_users": [123456789]
}
}