브끌에이전트

하나의 명령을 받아 스스로 코드를 짜고 실행하는 로컬 자율 에이전트.
3개의 LLM이 팀으로 일하고, 기억은 Obsidian 호환 마크다운으로 남습니다.

⬇️ 내 컴퓨터에 설치하기 ← 모드 선택으로
🍎 macOS 🪟 Windows 🐧 Linux 🦙 Ollama 💬 Telegram 📓 Obsidian

핵심 기능

외부 API 키 없이도 로컬에서 동작하지만, 필요하면 OpenAI·Anthropic 모델도 동시 등록해 슬롯 단위로 갈아 끼울 수 있습니다.

🧠

자연어 → 코드 → 실행

임무를 받으면 Python 스크립트를 직접 작성해 격리된 샌드박스에서 실행합니다. 실패 시 에러를 분석해 자동 재시도.

🤝

3-Role 멀티 LLM 팀

Planner가 계획을 세우고, Coder가 단계별로 코드를 짜 실행하고, Reviewer가 결과를 한국어 보고서로 정리합니다.

📓

Obsidian 호환 기억

모든 임무·대화가 ~/.bkr-agent/vault/ 마크다운으로 남고 [[wikilink]]로 자동 연결됩니다. Obsidian.app으로 같은 폴더를 vault로 열면 그래프 뷰까지 무료.

🔍

벡터 RAG 자동 학습

ChromaDB가 마크다운 본문을 인덱싱해 새 임무에 유사한 과거 경험을 자동 회상. 유사도 임계값으로 무관한 회상은 차단.

💬

웹 + 텔레그램 동시

브라우저 채팅 UI(사이드바·대화 히스토리·음성/파일 입력)와 텔레그램 봇이 같은 메모리를 공유. 어디서든 호출 가능.

🔒

로컬 우선·디지털 주권

기본 추론은 Ollama 로컬 모델. 코드 실행은 OS-레벨 CPU/프로세스 limit이 걸린 임시 디렉토리. 데이터는 모두 사용자 디스크에.

무료 클라우드 LLM 지원

RAM이 적어도 Groq 무료 API 키 하나로 Llama 3.3 70B를 500 tok/s로 사용. 설정 → 받기/연결 탭에서 클릭 한 번으로 등록.

🏛️ 진화 — 브끌투 (bkr-2)

한 단계 위의 시스템. 메인 → 팀장 → 팀원 3계층 멀티 에이전트가 5채널로 협업합니다. 사용자는 모든 채널의 대화를 아무도 모르게 들여다볼 수 있는 관찰자.

🧠

메인 에이전트

사용자 의뢰를 받아 자동 분류 (단순 응답 vs 팀 작업). 결과를 검토 후 한국어 보고.

🎩

팀장들

메인에서 받은 임무를 단계로 분해해 팀원에게 위임. 결과를 통합 검토.

🤖

팀원들

각자 다른 LLM 슬롯 사용 가능. 페르소나·기술 자유 편집. UI에서 클릭 한 번으로 추가/제거.

👁️

비밀 관찰자

5채널 (개인 비서 · 이사회 · 팀별 회의 · 전략 회의 · 전체 회의) 어느 곳이든 자동 폴링. 에이전트는 사용자 관찰을 모름.

브끌투 접속

브끌투 앱 열기 →

어떻게 동작하나

팀 모드 한 사이클입니다. 임무가 들어오면 세 LLM이 차례로 일을 나눠 갖고, 결과는 모두 vault에 노트로 쌓입니다.

👤 사용자자연어 명령
📋 Planner임무 → 단계 분해
🔨 Coder단계별 코드 + 샌드박스
📊 Reviewer한국어 종합 보고
👤 사용자보고서 수신
📓 Vault마크다운 노트
🔍 Vector IndexChromaDB RAG
🧪 Sandbox격리 실행
🦙 Ollama로컬 LLM

설치

Python 3.10 이상이 있으면 어디서나 설치됩니다. 운영체제를 선택하세요.

# 1. 저장소 클론 후 설치 스크립트 실행
git clone <repo-url> bkr-agent && cd bkr-agent
./install.sh

# 2. (권장) 로컬 LLM 설치 — Ollama
brew install ollama
ollama pull llama3        # 4.7GB, 빠름
ollama pull qwen2.5:7b    # 4.4GB, 한국어/코드 강함

# 3. 실행
bkr-agent serve            # http://127.0.0.1:8765
# 1. 저장소 클론 후 설치 스크립트 실행
git clone <repo-url> bkr-agent && cd bkr-agent
./install.sh

# 2. Ollama 설치 (한 줄)
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3

# 3. 실행
bkr-agent serve
# 1. PowerShell에서 설치 스크립트 실행
git clone <repo-url> bkr-agent
cd bkr-agent
powershell -ExecutionPolicy Bypass -File install.ps1

# 2. Ollama 설치 — https://ollama.com/download/windows
ollama pull llama3

# 3. 실행
bkr-agent serve
# 패키지로 직접 설치 (모든 OS 공통)
cd bkr-agent
pip install ".[all]"          # 모든 기능
pip install ".[telegram]"     # 텔레그램만 추가
pip install "."                # 핵심만 (Ollama 전용)

# 권장: pipx로 격리 설치
pipx install ".[all]"

빠른 사용법

설치 후 명령 한 줄로 다섯 가지를 할 수 있습니다.

🌐 웹 채팅 시작 bkr-agent serve

브라우저에서 http://127.0.0.1:8765/app 으로 접속. 사이드바·대화 히스토리·음성/파일 입력 모두 사용 가능.

📡 텔레그램 봇 bkr-agent telegram

~/.bkr-agent/config.json에 봇 토큰과 본인 user id를 등록한 뒤 실행. 텔레그램에서 텍스트·파일·음성으로 동일하게 명령.

⚡ 단발 실행 (CLI) bkr-agent run "임무"

대화 UI 없이 명령 한 줄. 결과만 stdout으로 받음. 스크립트나 cron에서 쓰기 좋음.

📋 모델 확인 bkr-agent models

등록된 LLM 슬롯 목록. Ollama·OpenAI·Anthropic 백엔드 중 키가 있는 것만 자동 활성화.

⚙️ 설정 보기 bkr-agent config

~/.bkr-agent/config.json 위치와 내용 표시. 첫 실행 시 기본 설정이 자동 생성됩니다.

📓 메모리 보기 open ~/.bkr-agent/vault

vault 폴더를 Obsidian.app에서 열면 모든 임무·대화가 그래프로 보임. 직접 노트를 편집해도 다음 RAG에 반영됩니다.

설정 예시

~/.bkr-agent/config.json — 멀티 LLM 슬롯과 팀 역할, 텔레그램, 서버 포트를 한 파일에서.

{
  "default_slot": "Llama 3 (로컬)",
  "models": [
    {"name": "Llama 3 (로컬)",    "backend": "ollama",    "model": "llama3:latest"},
    {"name": "Qwen 2.5 (로컬)",   "backend": "ollama",    "model": "qwen2.5:7b"},
    {"name": "GPT-4o mini",       "backend": "openai",    "model": "gpt-4o-mini"},
    {"name": "Claude Sonnet",     "backend": "anthropic", "model": "claude-sonnet-4-5"}
  ],
  "team": {
    "planner":  "Llama 3 (로컬)",
    "coder":    "Qwen 2.5 (로컬)",
    "reviewer": "Claude Sonnet"
  },
  "telegram": {
    "token": "<@BotFather에서 받은 토큰>",
    "allowed_users": [123456789]
  }
}