DeepSeek V4를 가장 쉽게 설명하면 이렇다. 1M 토큰 컨텍스트를 지원하는 오픈 모델 계열이다.
틀린 말은 아니다. 다만 이 설명만 붙잡고 있으면 이번 출시의 진짜 포인트를 놓치기 쉽다.
DeepSeek V4가 중요한 이유는 단순히 많이 읽을 수 있어서가 아니다. DeepSeek는 긴 문맥을 자랑거리로만 내세우는 대신, 그걸 에이전트가 실제로 돌릴 수 있는 형태로 만들려 한다. 기존 도구에 붙일 수 있어야 하고, 여러 단계를 거치는 작업에서도 상태가 유지돼야 하고, 무엇보다 비용이 감당 가능해야 한다는 쪽에 더 가깝다.
그래서 이 출시는 평범한 장문맥 모델 발표처럼 읽으면 반만 읽은 셈이다.
다들 1M 컨텍스트부터 보겠지만
공식 출시 노트만 봐도 헤드라인은 명확하다. V4 Preview는 공개됐고 오픈소스로 풀렸으며, cost-effective 1M context length를 전면에 내세운다.[1]
제품도 두 갈래다.
- DeepSeek-V4-Pro는 주력 모델이고
- DeepSeek-V4-Flash는 더 빠르고 저렴한 쪽이다.[1]
여기까지만 보면 익숙하다. 또 하나의 장문맥 경쟁, 또 하나의 “우리는 더 길게 읽는다”는 이야기처럼 보인다.
하지만 여기서 한 번 더 물어봐야 한다. DeepSeek는 도대체 어떤 일을 가져가고 싶어 하는가?
이건 장문맥 모델이라기보다 에이전트 백엔드에 가깝다
공식 문서를 몇 개만 같이 놓고 보면 방향이 꽤 선명해진다.
DeepSeek는 V4를 단순한 모델이 아니라, 실제 에이전트 워크플로우에 꽂히는 백엔드처럼 소개하고 있다.
- OpenAI 포맷과 Anthropic 포맷 API를 둘 다 지원하고,[1][4]
- Claude Code, OpenCode, OpenClaw에 붙이는 방법을 문서로 따로 안내하고,[5]
- thinking / non-thinking 모드를 둘 다 제공하며 thinking은 기본 활성화돼 있고,[2][3]
- tool call, reasoning persistence, strict schema 기반 툴 실행 규칙까지 꽤 구체적으로 설명한다.[3][4]
이건 그냥 문서를 친절하게 써둔 수준이 아니다. 제품을 어디에 쓰이게 만들고 싶은지가 드러난다.
컨텍스트 윈도우가 크다는 점만 인정받고 싶은 회사라면 굳이 Claude Code용 설정 문서를 만들 이유가 없다. 툴 호출이 들어간 뒤 reasoning state를 어떻게 다시 넘겨야 하는지까지 자세히 적을 필요도 없다.
반대로, 기존 에이전트 툴 안으로 들어가고 싶은 회사라면 그런 문서가 필요하다.
긴 문맥은 에이전트가 계속 돌릴 수 있을 때만 의미가 있다
사실 많은 “1M context” 발표가 비슷하게 들리는 이유도 여기 있다.
숫자 자체는 인상적이다. 하지만 에이전트 워크로드에서는 창이 크다는 사실만으로 충분하지 않다.
모델이 장기 루프를 돌리기에 너무 비싸거나, 툴을 쓰는 런타임에 넣기 어렵거나, 여러 단계의 reasoning을 이어가는 과정에서 쉽게 흔들리면 그 숫자는 금방 힘을 잃는다.
DeepSeek는 이 문제를 꽤 의식하고 있는 쪽에 가깝다.
특히 가격 문서가 그렇다. DeepSeek V4 Pro는 2026-05-05 15:59 UTC까지 75% 한시 할인이 걸려 있다.[2] 이건 단순한 프로모션 문구로 보기 어렵다. 오히려 “장기 에이전트 루프를 실험해볼 만한 가격”이라는 신호에 가깝다.
결국 의도는 분명해 보인다. 개발자들이 긴 작업을 실제로 돌려보려 할 때, DeepSeek는 성능만이 아니라 가격으로도 먼저 손이 가는 후보가 되고 싶어 한다.
진짜 더 중요한 건 thinking mode 규칙이다
기술적으로 보면, 1M이라는 숫자보다 더 흥미로운 건 thinking mode의 동작 방식이다.
DeepSeek 공식 thinking mode 문서는 reasoning이 기본 활성화돼 있고, 복잡한 agent 요청은 effort를 자동으로 max까지 올릴 수 있다고 설명한다.[3]
여기서 더 중요한 건 reasoning persistence를 API 계약 수준에서 다룬다는 점이다.
툴 호출이 들어간 턴에서는 모델의 reasoning_content를 이후 턴에 다시 넘겨야 한다. 이 상태를 제대로 되돌려주지 않으면 API는 에러를 반환한다.[3]
이건 꽤 큰 차이다.
DeepSeek가 “우리도 툴 호출 지원한다”는 문장을 마케팅 문구로만 쓰는 게 아니라, 실제로는 reasoning이 여러 단계의 행동을 따라 이어지는 상황을 기본 전제로 잡고 있다는 뜻이기 때문이다.
즉 V4는 가끔 함수 하나 호출하는 챗모델이라기보다, 실제 agent loop 안에서 오래 버티도록 기대되는 모델에 더 가깝다.
호환성은 부가 기능이 아니라 핵심 전략이다
이번 출시가 흥미로운 또 다른 이유는 이동 비용을 낮추는 방식에 있다.
DeepSeek는 개발자에게 완전히 새로운 도구 체계를 배우라고 하지 않는다. 오히려 이미 쓰는 도구는 그대로 두고, 그 안에서 백엔드만 바꾸게 하려는 쪽에 가깝다.
문서에서 계속 강조하는 것도 바로 그 부분이다.
- OpenAI 스타일 API 지원,[1][2]
https://api.deepseek.com/anthropic를 통한 Anthropic 스타일 API 지원,[2][4]- Claude Code에서 DeepSeek를 백엔드로 붙이는 설정 안내,[5]
- OpenClaw와 OpenCode 연동 안내.[5]
이건 꽤 현실적인 전략이다.
모든 개발자가 새 툴로 옮겨갈 필요는 없다. 이미 쓰는 도구 안에서 provider만 DeepSeek로 갈아끼울 수 있으면 된다.
이 지점 때문에 V4는 전형적인 오픈모델 출시보다 더 위협적으로 보인다.
가격 이야기가 왜 더 중요해지는가
에이전트 워크로드는 비용을 증폭시킨다. 채팅 한 번은 요청 한 번이지만, 코딩 에이전트나 리서치 에이전트는 여러 번의 호출, 툴 실행, 재시도, 장문맥 재사용이 한 세트로 묶인다.
그래서 가격은 단순히 “싸면 좋다” 수준의 얘기가 아니다. 어떤 모델을 진지하게 실험해볼지, 나아가 실제 워크플로우에 넣어볼지 자체를 바꿔버린다.
DeepSeek의 공식 가격 문서는 그 신호를 한 번에 보여준다.[2]
- 1M 컨텍스트,
- 큰 출력 한도,
- thinking mode,
- tool call 지원,
- cache hit / miss 가격,
- 그리고 V4 Pro 한시 할인.
이걸 같이 보면 평범한 API 문서라기보다 이런 메시지에 가깝다. 이 모델은 벤치마크 표에서 구경만 하라고 있는 게 아니라, 반복적인 에이전트 작업에 실제로 넣어 돌려보라고 있는 모델이다.
물론 아직은 조심해서 봐야 한다
그렇다고 너무 앞서 나갈 필요는 없다.
지금 DeepSeek V4를 “에이전트용 모델”로 읽게 만드는 가장 강한 근거 중 일부는, 장기적인 공개 프로덕션 사례라기보다 공식 문서들이 서로 맞물리는 방식에서 나온다.
그리고 현재로선 Hugging Face 쪽 분석이 가장 선명한 보조 해석을 제공한다. 그 글은 V4의 핵심을 단순한 컨텍스트 숫자가 아니라, agentic workload에서 장문맥을 실용적으로 돌릴 수 있게 만드는 효율성으로 본다.[6]
이 해석은 설득력이 있지만, 어디까지나 해석이다. 아직 최종 판정은 아니다.
그래서 가장 안전한 선은 이쯤이다.
- 공식적으로는 DeepSeek가 V4를 agentic coding과 tool-based workflow용으로 분명히 포지셔닝하고 있고,[1][3][4][5]
- 상업적으로는 공격적인 한시 가격으로 그 포지션을 밀고 있으며,[2]
- 편집적으로는 그래서 V4는 단순한 장문맥 발표보다 에이전트 백엔드로서 더 흥미롭다.
우리 해석
DeepSeek V4가 중요한 이유는 모델 경쟁의 다음 국면이 뭔지 보여주기 때문이다.
한동안 긴 문맥은 거의 자랑용 숫자처럼 쓰였다. 창이 크다는 건 인상적이었지만, 개발자들이 그걸로 실제 무슨 일을 할 수 있는지는 늘 별개의 문제였다.
DeepSeek의 답은 꽤 실무적이다. 모델이 충분히 싸고, 충분히 호환되고, 기존 에이전트 도구 안에서 state를 유지할 수 있다면 장문맥은 비로소 실질적인 의미를 갖는다.
그래서 V4는 긴 문맥 자체보다 에이전트 쪽에서 더 중요하게 읽힌다.
1M 윈도우는 눈에 띄는 헤드라인이다.
하지만 더 중요한 이야기는 DeepSeek가 긴 문맥 reasoning을 이미 사람들이 쓰는 코딩 에이전트 환경 안에서 운영 가능한 것으로 만들려 한다는 점이다.
이 시도가 실제로 통한다면, V4가 중요한 이유는 종이 위에서 컨텍스트 경쟁을 이겼기 때문이 아니라, 진짜 다단계 에이전트 워크플로우를 돌리는 장벽을 낮췄기 때문이 될 것이다.
이게 더 오래 볼 포인트다.
References
[1] DeepSeek, DeepSeek V4 Preview Release
https://api-docs.deepseek.com/news/news260424
[2] DeepSeek, Models & Pricing
https://api-docs.deepseek.com/quick_start/pricing
[3] DeepSeek, Thinking Mode
https://api-docs.deepseek.com/guides/thinking_mode
[4] DeepSeek, Tool Calls and Anthropic API
https://api-docs.deepseek.com/guides/tool_calls
https://api-docs.deepseek.com/guides/anthropic_api
[5] DeepSeek, Integrate with AI Tools
https://api-docs.deepseek.com/guides/coding_agents
[6] Hugging Face, DeepSeek-V4: a million-token context that agents can actually use
https://huggingface.co/blog/deepseekv4
Related links
General marketplace links for future gear and tool references.
Some outbound links may later become affiliate links. See the disclosure page for details.