🤖 AI 뉴스·서비스
Claude Code 소스 전체 유출 사태
💡 핵심: 1,900개 파일·51만 줄 코드가 npm에 통째로 노출 — AI 개발 생태계 역대급 '속살 공개'
2026년 3월 31일, 보안 연구자 Chaofan Shou가 Anthropic의 CLI 코딩 도구 Claude Code(버전 2.1.88)의 전체 TypeScript 소스코드가 npm 레지스트리의 59.8MB짜리 .map(소스맵) 파일에 그대로 실려 있음을 발견했습니다. 소스맵은 원래 개발자 디버깅용 내부 파일인데, 빌드 설정 실수로 외부에 배포된 것입니다. 유출된 코드에는 40개 이상의 도구 플러그인, 멀티 에이전트 오케스트레이션 시스템, 미출시 기능 44개(항상 켜져 있는 'KAIROS' 어시스턴트, 다마고치 스타일 'BUDDY' 펫 등)가 포함돼 있었습니다. Anthropic은 해당 버전을 즉시 삭제했지만, X(트위터) 원문 스레드는 이미 310만 뷰를 넘겼고 GitHub에 백업 레포가 다수 생성됐습니다. 같은 날 Axios npm 패키지가 별도 해킹을 당해 악성 RAT(원격 접근 트로이목마)가 삽입된 사건도 발생, AI 개발 공급망 보안에 대한 경고가 동시에 울렸습니다.
👉 이렇게 써봐: npm 패키지를 쓰는 개발자라면 lockfile(package-lock.json, yarn.lock)에서 axios 1.14.1 또는 0.30.4 버전이 있는지 즉시 확인하세요. 6개월 안에 '소스맵 보안 감사'와 'AI 도구 공급망 검증'이 기업 DevSecOps의 표준 체크리스트로 자리잡을 가능성이 높습니다.
🔗 자세히 보기
🛠️ 개발자 도구
Claude Code: 멀티에이전트 코딩 CLI
💡 핵심: 터미널 하나로 코드 작성·리팩토링·git 관리까지 — 이제 서브에이전트를 병렬로 굴린다
Claude Code는 Anthropic이 만든 터미널 기반 AI 코딩 도구로, 자연어 명령 하나로 파일 수정·bash 실행·코드 검색·git 워크플로우를 처리합니다. 2026년 3월 업데이트로 멀티에이전트 시스템(병렬 작업 실행), 실시간 디버깅 패널, loop/schedule 자동화 명령, 맥 데스크탑 직접 제어(API 불필요), 1M 토큰 컨텍스트 창이 추가됐습니다. /agents 명령으로 커스텀 서브에이전트를 만들 수 있고, 각 에이전트는 독립 컨텍스트 창에서 특정 툴 권한만 가지고 작동합니다. 이번 소스 유출로 내부 구조가 공개되면서 경쟁사들도 '멀티에이전트 오케스트레이션 + 배경 메모리 통합'이 다음 AI 코딩 도구의 핵심임을 확인했습니다.
🎯 실전 활용: API 레이어·DB 마이그레이션·테스트·문서화를 각각의 서브에이전트에게 병렬로 분배해 대규모 리팩토링을 단일 세션보다 몇 배 빠르게 완료 — 예컨대 한 세션에서 처리하면 5시간 걸릴 모놀리식→마이크로서비스 전환 작업을 Agent Teams로 동시 진행.
👉 이렇게 써봐: npm install -g @anthropic-ai/claude-code 로 설치 후 터미널에서 claude 명령으로 시작. 서브에이전트는 /agents 명령으로 생성하며, 복잡한 멀티파일 작업에는 실험적 Agent Teams 기능을 활용하면 컨텍스트 낭비를 줄일 수 있습니다.
🔗 자세히 보기
🔓 오픈소스 실전
TRL v1.0: LLM 파인튜닝 올인원 라이브러리
💡 핵심: HuggingFace 공식 출시 v1.0 RC — SFT·GRPO·DPO를 CLI 한 줄로, DeepSeek R1 학습법 내장
TRL(Transformer Reinforcement Learning)은 HuggingFace가 만든 LLM 포스트트레이닝(사전학습 이후 정렬·미세조정) 전문 라이브러리로, 2026년 3월 v1.0.0 RC1이 공개됐습니다. SFT(지도 미세조정)·GRPO(DeepSeek R1에 쓰인 강화학습 기법)·DPO(인간 선호 정렬) 등 다양한 트레이너를 제공하며, 코드 없이 CLI 한 줄로도 모델을 학습할 수 있습니다. LoRA/QLoRA(소형 어댑터로 대형 모델을 저사양 GPU에서 학습)와 vLLM 가속을 지원하고, 단일 GPU부터 멀티노드 클러스터까지 확장됩니다. 이번 v1.0에서는 Meta OpenEnv 연동(강화학습 환경 정의·배포 프레임워크), BFD 패킹 35% 속도 향상, agentic 툴 콜링 학습 지원 등이 추가됐으며 v0→v1 마이그레이션 가이드도 제공합니다.
💻 요구 사양: RAM 8GB 이상 권장, GPU는 LoRA 사용 시 VRAM 8GB(소형 모델 기준)로 가능, NVIDIA/AMD GPU 또는 CPU 전용 실행도 지원, Python 3.10+, Windows/Mac/Linux 모두 가능
⚡ 설치·시작: pip install trl 후 trl sft --model_name_or_path Qwen/Qwen2.5-0.5B --dataset_name trl-lib/Capybara --output_dir my-sft-model 로 즉시 학습 시작
👉 이렇게 써봐: Qwen·Llama 같은 오픈소스 모델을 자사 도메인 데이터로 파인튜닝하거나, GRPO로 추론 능력을 강화한 사내 전용 AI 어시스턴트를 만들 수 있습니다. 코딩 없이 CLI만으로도 가능해 ML 비전공 팀도 진입 장벽이 낮습니다.
🔗 자세히 보기
오늘의 AI 트렌드
오늘의 세 사건을 관통하는 흐름은 '에이전트 인프라의 민주화'입니다 — Claude Code 유출로 최정상급 AI 코딩 에이전트의 설계도가 공개됐고, TRL v1.0은 누구나 자기 모델을 훈련시킬 수 있는 도구를 완성했습니다. 독점 기술의 장벽이 무너지면서 개발 생태계는 '어떤 AI를 쓰느냐'보다 '어떻게 자기 에이전트를 조립하느냐'의 경쟁으로 빠르게 넘어가고 있습니다.