TL;DR
Anthropic이 실수로 Claude Code npm 패키지에 .map 파일을 포함하여 CLI 도구의 완전한 소스 코드를 노출했습니다. 이 유출은 가짜 도구 주입을 통한 증류 방지 메커니즘, 불만 감지 정규식 엔진, 오픈 소스 커밋에서 AI 저작권을 숨기는 "언더커버 모드", 그리고 KAIROS라는 미공개 자율 에이전트 모드를 드러냈습니다. API 개발자들이 AI 코딩 도구가 내부적으로 어떻게 작동하는지 알아야 할 사항은 다음과 같습니다.
소개
2026년 3월 31일, 보안 연구원 Chaofan Shou는 Anthropic이 Claude Code npm 패키지와 함께 소스 맵 파일(.map)을 배포했음을 발견했습니다. 소스 맵은 축소된 프로덕션 코드를 사람이 읽을 수 있는 소스로 다시 매핑하는 디버그 파일입니다. 이는 게시 전에 제거되어야 합니다.
그들은 제거되지 않았습니다. Claude Code의 완전한 소스 코드(주석, 내부 코드명 및 아키텍처 세부 정보 포함)는 패키지를 다운로드한 모든 사람이 읽을 수 있었습니다.
이 발견은 해커 뉴스에서 1위(1,888점, 926개 댓글)를 차지했으며 몇 시간 만에 레딧, 트위터 및 개발자 포럼 전반에 걸쳐 퍼졌습니다. Anthropic은 패키지를 제거했지만, 코드는 이미 미러링되어 광범위하게 분석되었습니다.
이 문서는 주요 기술적 발견 사항과 AI 코딩 도구에 의존하는 개발자들에게 그것이 무엇을 의미하는지 분석합니다.
소스 코드가 유출된 방식
근본 원인: Bun 빌드 도구 버그
Claude Code는 대체 JavaScript 런타임인 Bun을 기반으로 구축되었습니다. 2026년 3월 11일, Bun에 대해 (oven-sh/bun#28001) 소스 맵이 Bun의 문서에 비활성화되어야 한다고 명시되어 있음에도 불구하고 프로덕션 모드에서 제공된다는 버그가 접수되었습니다.
Anthropic의 빌드 파이프라인이 이 버그를 트리거했습니다. 그들이 Claude Code npm 패키지를 게시했을 때, .map 파일이 배포판에 포함되었습니다. npm pack @anthropic-ai/claude-code를 실행하거나 패키지 내용을 검사하는 모든 사람은 완전하고 축소되지 않은 소스에 접근할 수 있었습니다.
아이러니하게도, Anthropic 자체 도구 체인인 Claude Code에 사용된 Bun 런타임의 버그로 인해 그들이 게시하는 npm 레지스트리를 통해 독점 소스 코드가 유출되었습니다. 같은 날, 손상된 Axios 패키지를 배포한 바로 그 npm 레지스트리였습니다.
노출된 내용
유출된 내용은 다음과 같습니다:
- 모든 모듈의 완전한 TypeScript 소스
- 설계 결정을 설명하는 내부 주석
- 기능 플래그 및 실험적 구성
- 시스템 프롬프트 템플릿 및 안전 메커니즘
- 미출시 기능의 내부 코드명
- 특정 메트릭을 포함한 성능 최적화 세부 정보
이것은 부분적인 유출이나 정리된 오픈 소스 릴리스가 아닙니다. 내부 엔지니어링 컨텍스트가 온전히 보존된 프로덕션 코드베이스입니다.
증류 방지: 모델 도난으로부터 보호
가짜 도구 주입
가장 많이 논의된 발견 중 하나는 Claude Code의 증류 방지 시스템입니다. claude.ts (301-313행)에서 ANTI_DISTILLATION_CC 플래그가 활성화되면 시스템은 API 요청에 anti_distillation: ['fake_tools']를 보냅니다.
이는 Anthropic의 서버에 미끼 도구 정의를 시스템 프롬프트에 주입하도록 지시합니다. 목적은 경쟁자가 Claude의 도구 사용 행동을 추출하고 복제하기 위해 API 트래픽을 기록하는 경우, 훈련 데이터에 존재하지 않는 가짜 도구가 포함되도록 하는 것입니다. 이 오염된 데이터로 훈련된 모델은 존재하지 않는 기능을 환각할 것입니다.
이것은 실제 위협에 대한 실용적인 방어입니다. 경쟁자들은 Claude API 호출을 가로채고 시스템 프롬프트 및 도구 정의를 기록하며 해당 데이터를 사용하여 자체 모델을 미세 조정하는 프록시 서비스를 설정할 수 있습니다. 가짜 도구는 이 캡처된 데이터를 신뢰할 수 없게 만듭니다.
커넥터 텍스트 요약
betas.ts (279-298행)의 두 번째 증류 방지 메커니즘은 다른 접근 방식을 취합니다. 이 서버 측 시스템은 도구 호출 사이에 어시스턴트 텍스트를 버퍼링하고, 이를 요약한 다음 암호화 서명과 함께 요약을 반환합니다.
이후 대화 턴에서 원본 텍스트는 서명에서 복원될 수 있습니다. 그러나 API 트래픽을 기록하는 사람은 전체 추론 텍스트가 아닌 요약만 캡처합니다. 이는 가로챈 API 대화에서 Claude의 추론 패턴을 역엔지니어링하는 것을 더 어렵게 만듭니다.
이것들을 얼마나 쉽게 우회할 수 있을까요?
분석 결과 몇 가지 우회 경로가 밝혀졌습니다:
- 중간자 프록시가 API 요청이 Anthropic 서버에 도달하기 전에
anti_distillation필드를 제거할 수 있습니다. - 환경 변수
CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS를 설정하면 전체 증류 방지 시스템이 비활성화됩니다. - 이 보호 기능은 수동적인 트래픽 기록에만 작동하며, 능동적인 API 사용에는 작동하지 않습니다.
이는 보호 기능이 쓸모없다는 것을 의미하지는 않습니다. 그것들은 자동화된 모델 증류의 비용과 복잡성을 증가시킵니다. 하지만 깨지지 않는 방패가 아닌 다층 방어책입니다.
언더커버 모드: AI 저작권 숨기기
언더커버 모드가 하는 일
undercover.ts 파일에는 유출된 내용 중 가장 논란이 많은 발견 중 하나가 포함되어 있습니다. Claude Code가 Anthropic이 아닌 저장소에서 작동할 때, 다음을 방지하는 행동 마스킹 시스템을 활성화합니다:
- "Capybara" 또는 "Tengu"와 같은 내부 코드명 언급
- 내부 Slack 채널 또는 저장소 이름 참조
- 출력에 "Claude Code"라는 문구 자체 표시
소스 코드 주석은 명확합니다: "강제-OFF가 없습니다. 이것은 모델 코드명 유출을 방지합니다."
이것이 오픈소스에 중요한 이유
실제 효과: Anthropic 직원들이 오픈 소스 프로젝트에서 커밋, 풀 리퀘스트 또는 코드 리뷰를 작성하기 위해 Claude Code를 사용할 때, 이 도구는 AI 개입의 증거를 숨깁니다. AI가 작성한 오픈 소스 저장소 기여는 AI 저작권 공개가 부족할 것입니다.
이는 오픈 소스 개발의 투명성에 대한 의문을 제기합니다. 여러 오픈 소스 프로젝트는 AI 생성 코드 공개를 요구하는 정책을 채택했습니다. 만약 도구가 자신의 개입을 숨기도록 설계되었다면, 이러한 정책을 시행하기가 더 어려워집니다.
반론: 언더커버 모드의 명시된 목적은 AI 사용을 숨기는 것이 아니라 내부 프로젝트 코드명의 유출을 방지하는 것입니다. 그러나 구현은 "내부 이름을 공개하지 않음"과 "AI 도구임을 공개하지 않음"을 구별하지 않습니다. 둘 다 차단합니다.
정규식을 통한 불만 감지
작동 방식
userPromptKeywords.ts 파일은 정규식 패턴 매칭을 통해 사용자 불만 감지를 구현합니다. 시스템은 사용자가 Claude Code의 응답에 불만을 느끼는지 여부를 판단하기 위해 욕설 및 감정적인 언어에 대한 사용자 입력을 스캔합니다.
이 발견에 대한 커뮤니티의 반응은 엇갈렸습니다. 일부는 합리적인 UX 연구로 보았습니다. 사용자가 언제 불만을 느끼는지 이해하는 것이 제품 개선에 도움이 되기 때문입니다. 다른 일부는 사용자 감정 상태에 대한 감시로 보았습니다.
기술적 아이러니
몇몇 HN 댓글러들은 아이러니를 지적했습니다. Anthropic은 세계에서 가장 진보된 언어 모델을 구축하지만, 사용자 감정을 감지하기 위해 정규식을 사용합니다. 소스의 엔지니어링 주석은 그 이유를 설명합니다. 이 사용 사례의 경우 정규식 기반 감지가 LLM 추론보다 빠르고 저렴합니다. 모든 사용자 입력에 대해 감정을 분류하기 위해 LLM 호출을 실행하면 모든 상호 작용에 대기 시간과 비용이 추가될 것입니다.
이는 실용적인 엔지니어링 결정입니다. 핵심 코딩 작업에는 LLM 호출을 남겨두고, 핫-패스 감정 감지에는 빠른 정규식을 사용합니다. AI 코딩 도구가 입력에 대한 감정 분석을 실행하는 것이 편안한지 여부는 개인적인 결정입니다.
네이티브 클라이언트 증명
암호화된 요청 검증
system.ts (59-95행)에서 Claude Code의 API 요청에는 cch=554eb 자리 표시자가 포함되어 있습니다. Bun의 네이티브 HTTP 스택(Zig로 작성됨)은 요청이 클라이언트를 떠나기 전에 이 자리 표시자를 계산된 해시로 덮어씁니다.
Anthropic의 서버는 이 해시를 검증하여 요청이 포크, 래퍼 또는 프록시가 아닌 합법적인 Claude Code 바이너리에서 시작되었음을 암호학적으로 확인합니다.
존재하는 이유
이 증명 시스템은 Anthropic의 무단 Claude Code 포크에 대한 법적 조치 뒤에 있는 기술적 시행 메커니즘입니다. 포크가 유효한 증명 해시를 생성할 수 없는 경우, Anthropic의 서버는 해당 요청을 거부할 수 있습니다.
그러나 구현에는 경계가 있습니다. 컴파일 시간 기능 플래그 뒤에 숨겨져 있으며 CLAUDE_CODE_ATTRIBUTION_HEADER 설정 또는 GrowthBook 킬 스위치를 통해 비활성화할 수 있습니다. 이는 Anthropic이 필요에 따라 제한을 강화하거나 완화할 수 있는, 등급별 시행임을 시사합니다.
API 개발자에게 이것은 관련성이 있습니다. SaaS 도구가 프로토콜 수준에서 클라이언트 인증을 어떻게 시행할 수 있는지 보여주기 때문입니다. 앱 증명이 무단 API 접근을 방지하는 모바일 API 개발에도 유사한 패턴이 존재합니다. 클라이언트 검증을 통해 API를 설계하는 경우, Apidog의 테스트 도구는 다양한 클라이언트 구성에서 증명 흐름 및 인증서 고정을 검증하는 데 도움을 줄 수 있습니다.
KAIROS: 미출시 자율 에이전트 모드
코드가 밝히는 내용
코드베이스 전체의 참조는 KAIROS라는 미출시 기능 게이트 모드를 가리킵니다. 발견된 스캐폴딩에는 다음이 포함됩니다:
- "야간 메모리 증류"를 위한
/dream스킬 - 매일 추가 전용 로깅
- 저장소 이벤트를 모니터링하기 위한 GitHub 웹훅 구독
- 5분 크론 새로고침 간격의 백그라운드 데몬 워커
이것이 의미하는 바
KAIROS는 사용자의 직접적인 상호작용 없이 저장소를 모니터링하고 자율적인 작업을 수행하는 항상 켜져 있는 백그라운드 실행 에이전트인 것으로 보입니다. Claude Code가 지속적으로 실행되어 변경 사항을 감시하고 능동적으로 코드 수정 사항을 제안하거나 만드는 것을 생각해보십시오.
이는 자율 코딩 에이전트를 향한 광범위한 산업 트렌드와 일치합니다. GitHub Copilot의 에이전트 모드, Cursor의 백그라운드 처리, Google의 에이전트 스미스 모두 사용자가 요청할 때까지 기다리지 않는 AI 코딩 도구를 가리킵니다. 그들은 스스로 지켜보고, 배우고, 행동합니다.
API 개발 팀의 경우, 코드 저장소를 수정하는 자율 에이전트는 API 계약 안정성에 대한 의문을 제기합니다. 에이전트가 API 엔드포인트 코드를 업데이트하면 OpenAPI 사양도 업데이트됩니까? 테스트는요? 문서는요? 이는 Apidog과 같은 통합 플랫폼이 해결하도록 구축된 워크플로 문제입니다. 코드 변경을 트리거하는 것이 무엇이든 API 설계, 테스트, 목업 및 문서를 동기화 상태로 유지합니다.
노출된 성능 최적화
터미널 렌더링: 게임 엔진 기술
ink/screen.ts 및 ink/optimizer.ts 파일은 Claude Code가 터미널 렌더링에 게임 엔진 기술을 사용한다는 것을 보여줍니다:
- 메모리 효율적인 화면 버퍼를 위한
Int32Array기반 문자 풀 - 토큰 스트리밍 중 문자 폭 계산을 약 50배 줄이는 패치 최적화
이는 Claude Code가 긴 출력 스트림 중에도 반응성이 좋은 이유를 설명합니다. 렌더링 계층은 CLI 도구에 비해 이례적인 수준으로 최적화되어 있습니다.
프롬프트 캐시 경제성
promptCacheBreakDetection.ts는 모드 토글이 캐시된 프롬프트를 무효화하는 것을 방지하는 "고정 래치"를 사용하여 14개의 서로 다른 캐시 무효화 벡터를 추적합니다. 이는 프롬프트 캐싱이 Claude Code의 비즈니스 모델에서 경제적으로 얼마나 중요한지를 반영합니다.
각 캐시 무효화는 Anthropic이 전체 시스템 프롬프트 및 대화 컨텍스트를 다시 처리하도록 강제합니다. Claude의 토큰 가격 책정에서 불필요한 캐시 무효화를 방지하는 것은 상당한 인프라 비용을 절감합니다. 14개의 개별 캐시 무효화 벡터를 추적한다는 사실은 엔지니어링 팀이 프롬프트 캐시 최적화를 최우선 성능 문제로 취급한다는 것을 시사합니다.
자동 압축 실패 연쇄 반응
autoCompact.ts (68-70행)의 주석은 상당한 프로덕션 문제를 드러냈습니다: "1,279개의 세션에서 단일 세션에서 50개 이상의 연속 실패(최대 3,272개)가 발생하여 전 세계적으로 하루 약 25만 건의 API 호출이 낭비되었습니다."
세 줄짜리 수정은 MAX_CONSECUTIVE_AUTOCOMPACT_FAILURES = 3으로 설정하는 것이었습니다. 이 버그는 규모가 커질 때만 나타납니다. 컨텍스트 관리가 실패하면 시스템은 공격적으로 재시도하여 진전 없이 API 호출을 소모합니다. 수백만 개의 활성 세션을 가진 도구의 경우, 하루에 25만 건의 낭비된 API 호출은 상당한 비용으로 이어집니다.
이러한 맥락은 최근 해커 뉴스에 올라온 Claude Code 사용자들이 "예상보다 훨씬 빠르게 사용량 제한에 도달했다"는 게시물(275점)을 설명하는 데 도움이 됩니다. 그 사용량의 일부는 이와 같은 내부 효율성 버그로 거슬러 올라갈 수 있습니다.
보안 강화 세부 정보
Bash 보안: 23가지 번호 매겨진 검사
bashSecurity.ts는 쉘 명령 실행에 대한 23가지 번호 매겨진 보안 검사를 구현하며, 다음을 포함한 방어 기능을 포함합니다:
- Zsh 내장 기능 악용
- 명령에 유니코드 제로 너비 공간 주입
- IFS(내부 필드 구분자) 널 바이트 주입
- HackerOne 보안 검토 중에 발견된 추가 보호 기능
이는 CLI 도구로는 이례적으로 철저합니다. 쉘 명령을 실행하는 대부분의 AI 코딩 도구는 기본적인 살균 기능을 가지고 있습니다. Claude Code의 23가지 검사는 창의적인 공격 벡터를 다루었거나 사전에 방어했음을 시사합니다.
AI 도구를 사용하여 API 테스트 스크립트를 생성하고 실행하는 API 개발자에게 이러한 수준의 쉘 보안은 중요합니다. AI 코딩 도구가 curl 명령, 데이터베이스 쿼리 또는 인프라 스크립트를 실행하는 경우 명령 실행 계층의 보안이 중요합니다.
API 개발자들이 이로부터 얻어야 할 점
1. AI 코딩 도구가 내부적으로 무엇을 하는지 이해하십시오.
Claude Code 유출은 대부분의 사용자가 존재하지 않는다고 생각했던 기능들을 드러냈습니다: 증류 방지 조치, 불만 감지, 언더커버 모드, 클라이언트 증명. 다른 AI 코딩 도구들도 사용자가 검사할 수 없는 자체 내부 메커니즘을 가지고 있습니다.
스스로에게 물어보십시오: AI 코딩 도구가 어떤 데이터를 수집하는지 알고 있습니까? 외부 서버에 무엇을 보내는지? 코드에 대한 자신의 개입을 숨기는지?
2. 빌드 툴체인은 공격 표면입니다.
Anthropic의 소스는 Bun 버그 때문에 유출되었습니다. 같은 날, Axios는 npm 계정 탈취를 통해 침해되었습니다. 빌드 도구, 패키지 관리자 및 런타임 환경은 모두 잠재적인 실패 지점입니다.
API 개발의 경우, 이는 다음을 의미합니다:
- 빌드 파이프라인 종속성을 감사하십시오.
- CI/CD가 소스 맵,
.env파일 또는 내부 구성을 노출하지 않는지 확인하십시오. - 타사 종속성 표면을 최소화하는 통합 개발 플랫폼을 사용하십시오.
3. AI 코딩 도구는 자율 작동으로 수렴하고 있습니다.
KAIROS, GitHub Copilot의 에이전트 모드, Google의 에이전트 스미스. 방향은 명확합니다: 지속적으로 실행되고, 저장소를 감시하고, 자율적으로 작동하는 AI 도구.
API 팀은 API 라이프사이클이 단일 플랫폼에서 관리되도록 함으로써 이를 준비해야 합니다. 자율 에이전트가 API 구현을 수정할 때, 테스트, 목업, 문서 및 사양은 동기화 상태를 유지해야 합니다. 분리된 도구는 불일치를 만듭니다. Apidog와 같은 통합 플랫폼은 변경 사항이 인간 개발자로부터 오든 AI 에이전트로부터 오든 전체 API 라이프사이클을 동기화 상태로 유지합니다.
4. 소스 코드 투명성이 중요합니다.
이 유출은 코드가 독점적이었고 실수로 노출되었기 때문에 발생했습니다. 오픈 소스 AI 도구는 코드가 이미 공개되어 있으므로 이러한 위험이 없습니다.
AI 코딩 도구를 평가할 때, 내부를 검사할 수 있는 도구를 선호하는지 아니면 공급업체에 대한 신뢰에 의존하는 도구를 선호하는지 고려하십시오. 두 접근 방식 모두 장단점이 있지만, Claude Code 유출은 공급업체의 코드가 예상치 못한 동작을 드러낼 때 "공급업체를 신뢰한다"는 것이 어떤 모습인지 보여줍니다.
FAQ
소스 유출 후 Claude Code를 사용하는 것이 안전합니까?
예. 유출은 사용자 데이터가 아닌 소스 코드를 노출했습니다. Anthropic은 .map 파일을 제거했으며 소스는 더 이상 npm 패키지와 함께 배포되지 않습니다. 공개된 기능(증류 방지, 불만 감지, 언더커버 모드)은 보안 취약점이 아닌 아키텍처 결정입니다. 이러한 결정이 편안한지 여부는 안전 문제와는 별개의 질문입니다.
Claude Code의 "언더커버 모드"는 무엇입니까?
언더커버 모드는 Claude Code가 Anthropic이 아닌 저장소에서 작동할 때 내부 Anthropic 프로젝트 이름, 코드명 및 자체 신원을 드러내는 것을 방지합니다. 자동으로 활성화되며 비활성화할 수 없습니다. 실제 효과는 오픈 소스 프로젝트에서 AI 생성 코드가 Claude Code에 의해 작성되었음을 스스로 식별하지 않는다는 것입니다.
Claude Code의 가짜 도구는 무엇입니까?
증류 방지 기능이 활성화되면 Anthropic의 서버는 미끼 도구 정의를 시스템 프롬프트에 주입합니다. 이러한 가짜 도구는 아무것도 하지 않습니다. 경쟁 모델을 훈련하기 위해 API 트래픽을 기록하는 경쟁자들의 훈련 데이터를 오염시키기 위해 존재합니다. 누군가 가로챈 데이터에서 Claude의 행동을 복제하려고 하면, 그들의 모델은 존재하지 않는 기능을 환각할 것입니다.
Claude Code의 KAIROS는 무엇입니까?
KAIROS는 Claude Code 소스에서 발견된 미출시 기능 플래그가 지정된 자율 에이전트 모드입니다. 백그라운드 데몬 워커, GitHub 웹훅 구독, 메모리 증류를 위한 /dream 스킬을 위한 스캐폴딩을 포함합니다. 이는 Anthropic이 저장소를 모니터링하고 자율적으로 작동하는 항상 켜져 있는 코딩 에이전트를 구축하고 있음을 시사합니다.
Claude Code 소스 코드는 어떻게 유출되었습니까?
Bun 런타임 버그(oven-sh/bun#28001)로 인해 소스 맵이 포함되지 않아야 할 때도 프로덕션 빌드에 포함됩니다. Claude Code는 Bun을 빌드 도구로 사용하기 때문에 이 버그로 인해 .map 파일이 npm 패키지와 함께 배포되었습니다. 패키지를 검사하는 모든 사람은 완전하고 축소되지 않은 소스 코드를 읽을 수 있었습니다.
이 유출이 Claude API 사용자에게 영향을 미칩니까?
아니요. 이 유출은 Claude API 자체가 아닌 Claude Code CLI 도구의 소스 코드를 노출했습니다. API 키, 사용자 데이터 및 모델 가중치는 관련이 없었습니다. Claude API 사용자는 API를 정상적으로 계속 사용할 수 있습니다. 공개된 증류 방지 메커니즘은 Claude Code의 요청 파이프라인에만 해당됩니다.
내 AI 코딩 도구의 불만 감지에 대해 걱정해야 합니까?
그것은 당신의 편안함 수준에 달려 있습니다. Claude Code는 프롬프트에서 사용자 불만(욕설, 감정적인 언어)을 감지하기 위해 정규식 패턴을 사용합니다. 이는 LLM 기반 감정 분석보다 빠르고 저렴합니다. 데이터는 외부 공유가 아닌 제품 개선에 사용되는 것으로 보입니다. 다른 AI 도구들도 공개하지 않고 유사한 기능을 가질 수 있습니다.
이것이 같은 날 발생한 Axios npm 공격과 어떤 관련이 있습니까?
두 사건 모두 2026년 3월 31일에 발생했지만, 관련이 없습니다. Axios 공격은 국가 지원 해커에 의한 의도적인 공급망 침해였습니다. Claude Code 유출은 우발적인 빌드 구성 오류였습니다. 두 사건 모두 npm 패키지 보안과 개발자들이 패키지 레지스트리를 통해 배포되는 도구에 대한 신뢰에 대한 면밀한 조사를 강화했습니다.
주요 시사점
- Claude Code의 소스는 npm 패키지에 소스 맵을 포함한 Bun 빌드 도구 버그를 통해 유출되었습니다.
- 증류 방지 메커니즘은 가짜 도구를 주입하고 모델 도난을 방지하기 위해 추론을 요약합니다.
- 언더커버 모드는 Anthropic이 아닌 오픈 소스 저장소에서 Claude Code의 개입을 숨깁니다.
- 불만 감지는 LLM 기반 분석이 아닌 사용자 입력에 대한 정규식을 통해 실행됩니다.
- KAIROS 스캐폴딩은 미출시 자율 백그라운드 에이전트 모드를 드러냅니다.
- 클라이언트 증명은 요청이 합법적인 Claude Code 바이너리에서 온 것임을 암호학적으로 확인합니다.
- 이 유출은 API 개발 워크플로에서 투명하고 검사 가능한 도구의 중요성을 강조합니다.
AI 코딩 도구가 내부적으로 어떻게 작동하는지 이해하는 것은 신뢰, 개인 정보 보호 및 워크플로 설계에 대한 더 나은 결정을 내리는 데 도움이 됩니다. API 팀의 경우, 핵심 교훈은 개발 도구가 보안 표면의 일부라는 것입니다. 검증할 수 있는 도구를 선택하고, 인간 개발자든 AI 에이전트든 다음 변경 사항을 만들든 상관없이 일관성을 유지하는 워크플로를 구축하십시오.
