DeepSeek

DeepSeek(ディープシーク)とは



DeepSeek(ディープシーク、簡体字: 深度求索; 拼音: Shēndù Qiúsuǒ)は、中国人工知能研究所です。オープンソースの大規模言語モデル(LLM)の開発を主な事業としています。この研究所は、中国ヘッジファンド「High-Flyer」(簡体字: 幻方)からの資金提供を主に受けており、両組織は浙江省杭州市に拠点を置いています。

設立の背景



DeepSeekの創設者である梁文峰は、AI愛好家であり、2016年2月に「High-Flyer」を共同設立しました。彼は2007年から2008年の金融危機の際に浙江大学に在学しながら取引を開始し、2019年までに「High-Flyer」をAI取引アルゴリズムの開発と利用に特化したヘッジファンドとして確立させました。2021年までには、High-Flyerは取引にAIのみを使用するようになりました。

2023年4月、High-Flyerは金融事業とは独立して、AIツールの研究開発に専念する汎用人工知能ラボを立ち上げました。その翌月、このラボは「DeepSeek」として独立した企業となりました。しかし、収益化の難しさからベンチャーキャピタルからの資金調達には苦労しました。

DeepSeekの躍進



2024年5月、DeepSeekは高性能かつ低価格の「DeepSeek-V2」をリリースしました。このモデルは、中国のAIモデル市場における価格競争の引き金となり、瞬く間に「AI業界の拼多多(Pinduoduo)」と呼ばれるようになりました。この低価格戦略により、ByteDance、Tencent、Baidu、Alibabaといった大手テクノロジー企業も、DeepSeekに対抗するためにAIモデルの価格を引き下げる必要に迫られました。注目すべきは、DeepSeekが低価格でありながら、競合他社のような赤字に陥ることなく収益を上げている点です。

主要なリリースモデル



DeepSeek LLM


  • - DeepSeek Coder (2023年11月2日): DeepSeek初のモデルで、研究者と商業利用者の両方に無料で提供されています。モデルのコードはMITライセンスでオープンソース化されており、モデル自体は「オープンかつ責任ある下流利用」に関する追加ライセンス契約が付随しています。

  • - DeepSeek LLM (2023年11月29日): パラメータ数を67Bに拡張したモデルで、当時の他の大規模言語モデル(LLM)と競合するために開発されました。目標はGPT-4に近い性能でしたが、計算効率やスケーラビリティに課題が残りました。このモデルを基盤とするチャットボット版「DeepSeek Chat」も公開されています。

DeepSeek-V2


  • - DeepSeek-V2 (2024年5月): 競合モデルよりも低価格で提供され、100万トークンの出力あたり2人民元で利用可能です。ウォータールー大学のTiger Labが提供するリーダーボードでは、LLMランキングで7位にランクインしました。

DeepSeek-V3


  • - DeepSeek-V3 (2024年12月): 6710億のパラメータを持ち、約55日間の学習期間と558万米ドルの費用でトレーニングされました。このモデルは、Llama 3.1やQwen 2.5を上回る性能を示し、GPT-4oやClaude 3.5 Sonnetに匹敵する結果を出しました。DeepSeekが限られたリソースで最適化を実現したことは、中国のAI開発に対する米国制裁の限界を浮き彫りにしました。この成果は、「アメリカのAIがスプートニク・モーメントに達した」と評されるほどです。

DeepSeek-V3は、256のルーティングエキスパートと1つの共有エキスパートを含む「Multi-head Latent Attention Transformer」によるエキスパートの混合モデルです。各トークンが370億以上のパラメータを活性化する仕組みとなっています。

DeepSeek-R1


  • - DeepSeek R1-Lite-Preview (2024年11月): 論理的推論、数学的推論、およびリアルタイムの問題解決のためにトレーニングされたモデルです。DeepSeekは、このモデルがAmerican Invitational Mathematics Examination(AIME)やMATHといったベンチマークにおいてOpenAI o1モデルを上回る性能を示したと主張しています。しかし、「The Wall Street Journal」によれば、2024年版のAIMEから15問を使用したテストでは、o1モデルの方がDeepSeek R1-Lite-Previewよりも迅速に解を導き出したと報じています。

  • - DeepSeek-R1およびDeepSeek-R1-Zero (2025年1月20日): これらはV3-Baseを基盤としており、V3と同様に6710億の総パラメータと370億のアクティブパラメータを持つエキスパートの混合モデルです。「DeepSeek-R1-Distill」と呼ばれる一部のモデルもリリースされましたが、これらはR1を基盤としておらず、他のオープンウェイトモデルに類似しています。

R1-Zeroは完全に強化学習(RL)のみでトレーニングされており、教師ありファインチューニング(SFT)は一切行われていません。このモデルはGroup Relative Policy Optimization(GRPO)を使用しており、批評モデルを用いず、グループスコアから基準を推定します。報酬システムは主に精度報酬と形式報酬の2種類から構成されています。

R1-Zeroの出力は可読性が低く、英語中国語が混在する傾向があったため、R1のトレーニングを通じてこれらの問題を解決し、さらに推論能力を向上させました。

まとめ



DeepSeekは、高性能で低価格なAIモデルの開発を通じて、中国のAI業界における競争を活性化させています。技術的な進歩だけでなく、そのビジネスモデルも注目に値するでしょう。

外部リンク



もう一度検索

【記事の利用について】

タイトルと記事文章は、記事のあるページにリンクを張っていただければ、無料で利用できます。
※画像は、利用できませんのでご注意ください。

【リンクついて】

リンクフリーです。