今週の AI コミュニティで最も盛り上がったのが DeepSeek V4 のリリースだ。Hacker News のスコアは 1,757 ポイントに達し、週間ランキングの首位を独走した。リリースの発表から数時間で Twitter/X のトレンドにも入り、「これはゲームチェンジャーだ」という声が相次いだ。

なぜこれほど話題になったか。端的に言えば「GPT-5.5 の 1/10 以下の価格で、ほぼ同等の結果が出る」からだ。OpenAI が GPT-5.5 の API 料金を前モデルの 2 倍に引き上げた直後に、DeepSeek が価格を据え置きで次世代モデルを投入した——このタイミングの絶妙さも注目を集めた理由のひとつだ。

DeepSeek V4 とは何か

DeepSeek は 2023 年に設立された中国の AI 研究企業で、コスト効率の高い大規模言語モデルの開発で知られる。V4 は同社の最新フラッグシップモデル群で、V4-ProV4-Flash の 2 バリアントで構成される。

両モデルとも Mixture-of-Experts(MoE)アーキテクチャを採用している。MoE とは、全パラメータの一部しか推論時に使わない仕組みで、「超巨大だが実は軽い」を実現する技術だ。V4-Pro は総パラメータ 1.6 兆だが、実際の推論に使われるのは 490 億パラメータに過ぎない。

さらに V4 ではハイブリッドアテンション機構を新たに導入した。長いコンテキストを処理する際、V4-Pro は前世代(V3.2)比で FLOPs を 27%、KV キャッシュを 10% に削減できる。V4-Flash はさらに省エネで、それぞれ 10%・7% まで圧縮する。これが 100 万トークンの長文でもサクサク動く秘密だ。

V4-Pro と V4-Flash:どう違うか

項目V4-ProV4-Flash
総パラメータ数1.6 兆2,840 億
実使用パラメータ490 億130 億
コンテキスト長100 万トークン100 万トークン
最大出力長384K トークン384K トークン
ベンチマーク(GDPval-AA)1,554 Elo非公開
入力価格(キャッシュなし)$1.74 / 1M トークン$0.14 / 1M トークン
出力価格$3.48 / 1M トークン$0.28 / 1M トークン
入力価格(キャッシュヒット)$0.145 / 1M トークン$0.028 / 1M トークン

V4-Pro は「安くて賢い」、V4-Flash は「格安で速い」と覚えておけばよい。

GPT-5.5・Claude Opus 4.7 との価格・性能比較

価格比較(入力トークン・キャッシュなし)

モデル入力 / 1M出力 / 1Mコンテキスト
GPT-5.5$5.00$30.00100 万
Claude Opus 4.7$5.00$25.0020 万
DeepSeek V4-Pro$1.74$3.48100 万
DeepSeek V4-Flash$0.14$0.28100 万

GPT-5.5 と比較すると、V4-Pro は入力が約 2.9 倍安く、出力は約 8.6 倍安い。V4-Flash に至っては入力が約 36 倍、出力が約 107 倍安いという衝撃的な差だ。

性能比較

ベンチマーク(GDPval-AA)では、V4-Pro が 1,554 Elo でオープンウェイトモデルの中でトップを記録した。ただし GPT-5.4 や Gemini 3.1 Pro といったフロンティアモデルにはわずかに届かない水準だ。コーディングや多段階推論では、Claude Opus 4.7 がベンチマーク上は勝るケースもある。

結局のところ「GPT-5.5 には性能でやや劣るが、1/3 以下の価格」という位置付けだ。コスト感度が高いシステムを構築するなら、V4-Pro は非常に魅力的な選択肢になる。

実際に API を使ってみる

DeepSeek V4 の最大の使いやすさポイントは、OpenAI SDK と完全互換なことだ。すでに OpenAI の API を使っているプロジェクトなら、base_urlapi_key を差し替えるだけで動く。

from openai import OpenAI

client = OpenAI(
    api_key="your-deepseek-api-key",
    base_url="https://api.deepseek.com"
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "TypeScript で HTTP クライアントを書いて"}
    ]
)
print(response.choices[0].message.content)

Node.js / TypeScript でも同様に openai パッケージをそのまま使える。

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.DEEPSEEK_API_KEY,
  baseURL: "https://api.deepseek.com",
});

const response = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [{ role: "user", content: "こんにちは" }],
});

V4 はツール呼び出し(Function Calling)、JSON 出力モード、マルチターン会話にも対応している。既存の OpenAI ベースのコードはほぼそのままで移行できる。

Anthropic SDK でも使える

Anthropic SDK 経由でもアクセス可能だ。エンドポイントを https://api.deepseek.com/anthropic に設定するだけでよい。

コンテキストキャッシングで更にコスト削減

DeepSeek V4 はキャッシュヒット時に大幅な割引を適用する。

  • V4-Flash:キャッシュヒット時、入力コストが約 80% 削減($0.14 → $0.028)
  • V4-Pro:キャッシュヒット時、入力コストが約 92% 削減($1.74 → $0.145)

RAG(Retrieval-Augmented Generation)や、長い系統プロンプトを繰り返し送る用途では、この割引が効いてくる。たとえば 50 万トークンのシステムプロンプトを 1 日 1,000 回送るケース(ドキュメント Q&A ボットなど)では、キャッシュの有無でコストが 10 倍以上変わることもある。

ユースケース別:どちらを選ぶか

V4-Flash を選ぶべきケース

  • チャットボット・カスタマーサポート:応答速度とコストが最重要で、複雑な推論が不要な場合
  • 文書要約・分類:大量の短文書を高スループットで処理したい場合
  • RAG のリトリーバル層:検索結果を整形・ランク付けするような軽作業
  • プロトタイプ開発:アイデアを素早く試したいとき(コストを気にせず実験できる)

V4-Pro を選ぶべきケース

  • 複雑なコーディングタスク:設計・実装・テストを含む多段階の作業
  • 長文書の分析:100 万トークン近い長大なドキュメントや法律文書の解析
  • エージェントシステム:複数ツールを呼び出しながら推論を繰り返すワークフロー
  • 翻訳・多言語処理:DeepSeek は多言語データで訓練されており、日中英の精度が高い

GPT-5.5 / Claude Opus 4.7 を選ぶべきケース

最高精度が求められる場面、たとえば医療診断支援・法令解釈・高難度の数学推論などでは、V4-Pro ではなく GPT-5.5 や Claude Opus 4.7 を選ぶ価値がある。また、Anthropic の安全性対策や OpenAI のエンタープライズサポートが必要な場合も同様だ。

まとめ:AI の「価格革命」が本格化する

DeepSeek V4 の登場は単なるモデルリリースではなく、AI API の価格常識を塗り替えるイベントだと捉えるべきだ。OpenAI が GPT-5.5 で価格を倍増させた直後に、DeepSeek がほぼ同等の性能を 1/3〜1/100 の価格で提供する——この構図は今後も繰り返されるだろう。

特に注目したいのが V4-Pro のコスパだ。フロンティアモデルにわずかに届かない性能を、大幅に安いコストで使える。コスト感度が高い商用アプリケーション(チャットボット、コード補助、文書処理など)では、V4-Pro への移行を真剣に検討する価値がある。

V4-Flash は「十分すぎるほど高速・格安」なモデルとして、プロトタイピングやロングテールのタスクに最適だ。「GPT-4 水準の能力を $0.14 / 百万トークンで」という衝撃的なコスパは、スタートアップや個人開発者にとって特に嬉しいニュースだろう。

DeepSeek V4 の API は今日から使える。まず DeepSeek Platform でアカウントを作り、API キーを発行してみよう。