
DeepSeek-R1 / V3 レビュー:オープンソース LLM は実務で使えるか
DeepSeek は中国のヘッジファンド系 AI ラボが公開している オープンソース LLM シリーズです。2025 年 1 月の R1 公開で世界に衝撃を与え、2026 年現在は V3.2(汎用)と R1.5(推論)が主力。MIT ライセンスで商用利用可、料金は GPT-5 や Claude Opus 4.6 の 1/10 〜 1/30。本記事では実務利用の判断材料を整理します。
シリーズの位置づけ
| モデル | 用途 | API 価格(入力/出力 1M トークン) |
|---|---|---|
| DeepSeek-V3.2 | 汎用チャット・要約・翻訳 | $0.14 / $0.28 |
| DeepSeek-R1.5 | 推論・コード・数学 | $0.55 / $2.19 |
| GPT-5(参考) | 同等用途 | $2.50 / $10.00 |
| Claude Opus 4.6(参考) | 同等用途 | $15.00 / $75.00 |
性能評価(2026 年春時点)
- コーディング(HumanEval / SWE-bench):R1.5 が GPT-5 と互角、Claude Opus 4.6 にはやや及ばない
- 数学(MATH / AIME):R1.5 は OpenAI o3 と肉薄、推論ステップが見える
- 日本語:英中ほどではないが実用レベル。砕けた口語にやや弱い
- 長文 / 100k+ コンテキスト:Claude より精度が落ちる
- マルチモーダル:画像入力には未対応(V3.2)
得意な用途
- 大量バッチ処理:1 万件のテキスト分類・翻訳など、料金がボトルネックの業務
- 社内ツールへの組込:MIT ライセンスのため、自前 GPU で運用可(V3.2 は 671B、R1.5 は 685B)
- コード補完サーバー:個人開発者が Cursor / Continue で接続して節約
- 研究用途:推論プロセスが透明、論文や教材で説明しやすい
苦手・注意点
- データ取扱:API は中国の DeepSeek サーバー経由。機密情報・個人情報は送らない。社内利用は自前ホスト推奨
- 政治的トピックの検閲:天安門事件など中国当局が嫌う質問は回答拒否
- マルチモーダル不足:画像・音声は別ツール
- 日本語の俗語・敬語:稀に違和感(自社サービスのトーン調整は要レビュー)
セルフホストの現実
R1.5 / V3.2 は MIT で重みが公開されていますが、フルサイズ運用には H100 8 枚(約 6,000 万円)以上の GPU が必要です。個人事業主には現実的でないため、以下の選択肢が現実的:
- DeepSeek 公式 API:最安だが中国経由
- Together AI / Fireworks / Groq:DeepSeek モデルを米国経由でホスト、データ越境を緩和
- Ollama でローカル実行:蒸留版 R1-Distill-7B / 14B / 32B が個人 GPU でも動く
競合との使い分け
| 用途 | 推奨 |
|---|---|
| 機密データを含む業務 | Claude Pro / ChatGPT Enterprise |
| 大量処理 / コスト重視 | DeepSeek-V3.2(公式 or Together AI) |
| 難解な推論・数学 | DeepSeek-R1.5 または OpenAI o3 |
| 長文 200k+ 解析 | Claude Pro |
| 画像・音声を含む業務 | GPT-5 / Gemini 3.1 Pro |
個人事業主の使い方
「毎日数千件のテキストを処理する SaaS を運営している」「翻訳・要約をバッチで回したい」という個人事業主には、コスト面で圧倒的に有利です。逆に、対話型のクライアント業務や機密案件は Claude / ChatGPT を維持し、DeepSeek は「裏方の自動化」に使うのが現実的でしょう。
結論
2026 年春時点では「コスト最優先 + データ越境を許容できる用途」では強力な選択肢。汎用ファーストチョイスにするのは早く、用途を絞った第二候補として位置づけるのが堅実です。
※ 仕様・価格は 2026-05 時点のものです。DeepSeek は更新が速いため、契約前に platform.deepseek.com で最新仕様をご確認ください。