Anthropic은 Claude Code에게 더 많은 통제권을 부여하지만 계속해서 묶여 있습니다.
2026. 3. 25. 오전 7:00:02 · 예상 읽기 3분

간략 요약
Claude Code를 위한 Anthropic의 새로운 자동 모드를 사용하면 AI가 더 적은 승인으로 작업을 실행할 수 있으며, 이는 내장된 보호 장치를 통해 속도와 안전의 균형을 맞추는 보다 자율적인 도구로의 광범위한 전환을 반영합니다.
상세 요약
이미지 출처: Jagmeet Singh / TechCrunch
오후 2시(PDT) · 2026년 3월 24일
AI를 사용하는 개발자의 경우 현재 "바이브 코딩"은 모든 작업을 보살피거나 모델이 확인되지 않은 상태로 실행될 위험이 있다는 의미로 귀결됩니다.Anthropic은 Claude에 대한 최신 업데이트는 AI가 어떤 조치를 취하는 것이 안전한지 몇 가지 제한을 두고 스스로 결정하도록 함으로써 그러한 선택을 없애는 것을 목표로 한다고 말합니다.
AI 도구가 점차 인간의 승인을 기다리지 않고 작동하도록 설계됨에 따라 이러한 움직임은 업계 전반에 걸쳐 더 광범위한 변화를 반영합니다.문제는 속도와 제어의 균형을 맞추는 것입니다. 가드레일이 너무 많으면 속도가 느려지고, 너무 적으면 시스템이 위험해지고 예측 불가능해집니다.현재 연구 미리보기 단계에 있는 Anthropic의 새로운 "자동 모드"는 테스트에 사용할 수 있지만 아직 완성된 제품은 아니라는 의미로 바늘에 실을 꿰기 위한 최신 시도입니다.
자동 모드는 AI 보호 장치를 사용하여 각 작업을 실행하기 전에 검토하고 사용자가 요청하지 않은 위험한 동작과 신속한 삽입의 징후를 확인합니다. 이는 AI가 처리하는 콘텐츠에 악의적인 지침이 숨겨져 의도하지 않은 작업을 수행하게 하는 공격 유형입니다.안전한 작업은 자동으로 진행되지만 위험한 작업은 차단됩니다.
이는 기본적으로 모든 의사 결정을 AI에 전달하는 Claude Code의 기존 "dangerously-skip-permissions" 명령을 확장한 것이지만 그 위에 안전 계층이 추가되어 있습니다.
이 기능은 개발자를 대신하여 작업을 실행할 수 있는 GitHub 및 OpenAI와 같은 회사의 자율 코딩 도구를 기반으로 구축되었습니다.그러나 사용자에게 허가를 요청할 시점에 대한 결정을 AI 자체로 전환함으로써 한 단계 더 발전합니다.
Anthropic은 안전한 작업과 위험한 작업을 구별하기 위해 안전 계층에서 사용하는 특정 기준을 자세히 설명하지 않았습니다. 개발자는 이 기능을 널리 채택하기 전에 더 잘 이해하고 싶어할 것입니다.(TechCrunch는 이 문제에 대한 자세한 정보를 얻기 위해 회사에 연락했습니다.)
자동 모드는 Anthropic이 출시한 Claude Code Review, 버그가 코드 베이스에 도달하기 전에 버그를 잡아내도록 설계된 자동 코드 리뷰어, 그리고 Dispatch for Cowork를 통해 사용자가 AI 에이전트에 작업을 보내 대신 작업을 처리할 수 있게 해줍니다.
