DeepSeek(ディープシーク)とは
DeepSeek(ディープシーク、
簡体字: 深度求索;
拼音: Shēndù Qiúsuǒ)は、
中国の
人工知能研究所です。オープンソースの
大規模言語モデル(LLM)の開発を主な事業としています。この研究所は、
中国の
ヘッジファンド「High-Flyer」(
簡体字: 幻方)からの資金提供を主に受けており、両組織は
浙江省杭州市に拠点を置いています。
設立の背景
DeepSeekの創設者である梁文峰は、AI愛好家であり、2016年2月に「High-Flyer」を共同設立しました。彼は2007年から2008年の金融危機の際に
浙江大学に在学しながら取引を開始し、2019年までに「High-Flyer」をAI取引アルゴリズムの開発と利用に特化した
ヘッジファンドとして確立させました。2021年までには、High-Flyerは取引にAIのみを使用するようになりました。
2023年4月、High-Flyerは金融事業とは独立して、AIツールの研究開発に専念する汎用
人工知能ラボを立ち上げました。その翌月、このラボは「DeepSeek」として独立した企業となりました。しかし、収益化の難しさからベンチャーキャピタルからの資金調達には苦労しました。
DeepSeekの躍進
2024年5月、DeepSeekは高性能かつ低価格の「DeepSeek-V2」をリリースしました。このモデルは、
中国のAIモデル市場における価格競争の引き金となり、瞬く間に「AI業界の拼多多(Pinduoduo)」と呼ばれるようになりました。この低価格戦略により、ByteDance、Tencent、Baidu、Alibabaといった大手テクノロジー企業も、DeepSeekに対抗するためにAIモデルの価格を引き下げる必要に迫られました。注目すべきは、DeepSeekが低価格でありながら、競合他社のような赤字に陥ることなく収益を上げている点です。
主要なリリースモデル
DeepSeek LLM
- - DeepSeek Coder (2023年11月2日): DeepSeek初のモデルで、研究者と商業利用者の両方に無料で提供されています。モデルのコードはMITライセンスでオープンソース化されており、モデル自体は「オープンかつ責任ある下流利用」に関する追加ライセンス契約が付随しています。
- - DeepSeek LLM (2023年11月29日): パラメータ数を67Bに拡張したモデルで、当時の他の大規模言語モデル(LLM)と競合するために開発されました。目標はGPT-4に近い性能でしたが、計算効率やスケーラビリティに課題が残りました。このモデルを基盤とするチャットボット版「DeepSeek Chat」も公開されています。
DeepSeek-V2
- - DeepSeek-V2 (2024年5月): 競合モデルよりも低価格で提供され、100万トークンの出力あたり2人民元で利用可能です。ウォータールー大学のTiger Labが提供するリーダーボードでは、LLMランキングで7位にランクインしました。
DeepSeek-V3
- - DeepSeek-V3 (2024年12月): 6710億のパラメータを持ち、約55日間の学習期間と558万米ドルの費用でトレーニングされました。このモデルは、Llama 3.1やQwen 2.5を上回る性能を示し、GPT-4oやClaude 3.5 Sonnetに匹敵する結果を出しました。DeepSeekが限られたリソースで最適化を実現したことは、中国のAI開発に対する米国制裁の限界を浮き彫りにしました。この成果は、「アメリカのAIがスプートニク・モーメントに達した」と評されるほどです。
DeepSeek-V3は、256のルーティングエキスパートと1つの共有エキスパートを含む「Multi-head Latent Attention Transformer」によるエキスパートの混合モデルです。各トークンが370億以上のパラメータを活性化する仕組みとなっています。
DeepSeek-R1
- - DeepSeek R1-Lite-Preview (2024年11月): 論理的推論、数学的推論、およびリアルタイムの問題解決のためにトレーニングされたモデルです。DeepSeekは、このモデルがAmerican Invitational Mathematics Examination(AIME)やMATHといったベンチマークにおいてOpenAI o1モデルを上回る性能を示したと主張しています。しかし、「The Wall Street Journal」によれば、2024年版のAIMEから15問を使用したテストでは、o1モデルの方がDeepSeek R1-Lite-Previewよりも迅速に解を導き出したと報じています。
- - DeepSeek-R1およびDeepSeek-R1-Zero (2025年1月20日): これらはV3-Baseを基盤としており、V3と同様に6710億の総パラメータと370億のアクティブパラメータを持つエキスパートの混合モデルです。「DeepSeek-R1-Distill」と呼ばれる一部のモデルもリリースされましたが、これらはR1を基盤としておらず、他のオープンウェイトモデルに類似しています。
R1-Zeroは完全に
強化学習(RL)のみでトレーニングされており、教師ありファインチューニング(SFT)は一切行われていません。このモデルはGroup Relative Policy Optimization(GRPO)を使用しており、批評モデルを用いず、グループスコアから基準を推定します。報酬システムは主に精度報酬と形式報酬の2種類から構成されています。
R1-Zeroの出力は可読性が低く、
英語と
中国語が混在する傾向があったため、R1のトレーニングを通じてこれらの問題を解決し、さらに推論能力を向上させました。
まとめ
DeepSeekは、高性能で低価格なAIモデルの開発を通じて、
中国のAI業界における競争を活性化させています。技術的な進歩だけでなく、そのビジネスモデルも注目に値するでしょう。
外部リンク