🏠 TOPに戻る

🔬 Tongyi DeepResearch:Alibabaのオープンソース長期探索エージェント

Alibaba オープンソース Webエージェント 30Bパラメータ
📅 2025年09月18日 - 重要なポイント:
  • 完全オープンソース:GitHubリポジトリとHugging Faceモデルを公開
  • 30B総パラメータで3B活性化:MoE設計による効率的な推論
  • 長期探索に特化:Web検索・ブラウザ操作・多段推論を統合
  • Apache 2.0ライセンス:商用利用可能な完全オープン

🎯 Tongyi DeepResearch 概要

主な特徴

Alibaba Tongyi Lab発:長期探索(long-horizon)に最適化されたAIエージェント

  • Web検索・ブラウザ操作・多段推論を統合したagentic設計
  • 30B総パラメータで3-3.3B活性化のMixture-of-Experts構造
  • 英語・中国語両言語でのベンチマーク最高性能
  • GitHub + Hugging Faceで完全公開
総パラメータ
30B
活性化
3-3.3B
ベンチマーク
SOTA級
ライセンス
Apache 2.0

🆚 Tongyi vs OpenAI DeepResearch比較

技術的差分比較表
観点 Tongyi DeepResearch OpenAI WebGPT系
アーキテクチャ 30B MoE設計(3B活性化) 汎用トランスフォーマー+外部ツール
エージェント性 agentic interaction dataで事前最適化 ReActプロンプト設計+ファインチューニング
トレーニング 継続的事前学習+RL最適化 人間フィードバック+報酬モデル
ベンチマーク BrowserComp、Humanity's Last Exam 事実性改善+出典提示
公開性 完全オープンソース(GitHub+HF) API+プラグインエコシステム
商用利用 Apache 2.0で自由利用可 OpenAI利用規約に従う
安全性 ベンチマーク重視、出典管理は要実装 出典収集+人間評価ループ内蔵
Tongyi DeepResearch
研究・カスタム開発向け
オープンソース
VS
OpenAI WebGPT
商用統合・即戦力向け
管理されたAPI

🚀 ローカル実行手順(最短10ステップ)

前提条件

  • ディスク容量:最低40GB(モデルサイズ30B + バッファ)
  • 推奨GPU:NVIDIA A100/H100等(BF16対応)
  • Python:3.10.0推奨

インストール手順

1リポジトリをクローン

git clone https://github.com/Alibaba-NLP/DeepResearch.git cd DeepResearch

2Python環境作成

conda create -n tongyi_dr python=3.10.0 -y conda activate tongyi_dr

3依存パッケージインストール

pip install -r requirements.txt

4Hugging Faceログイン

pip install huggingface_hub huggingface-cli login

5モデルダウンロード

from huggingface_hub import snapshot_download snapshot_download(repo_id="Alibaba-NLP/Tongyi-DeepResearch-30B-A3B", cache_dir="./models/tongyi")

6実行スクリプト設定

MODEL_PATH="/path/to/models/tongyi" DATASET="example" OUTPUT_PATH="./outputs"

7実行開始

bash run_react_infer.sh

軽量化オプション

  • 量子化版:Hugging Faceコミュニティの4bit/GGUF版を利用
  • CPU実行:llama.cpp / LMStudio / Ollama経由での実行
  • 小型GPU:24GB未満のGPUでも量子化版なら動作可能

🎯 技術的特徴と性能

Agentic設計の特徴

  • 長期探索(Long-horizon):複数ステップに渡る複雑なタスクを処理
  • Web統合:検索・ブラウザ操作・スクレイピングを自動化
  • 多段推論:情報収集→分析→レポート生成の完全自動化
  • 相互作用データ:実際のエージェント動作データで学習

MoE(Mixture-of-Experts)効率化

総パラメータ

30B:大規模モデルの知識量

活性化パラメータ

3-3.3B:推論時の実際の計算量

効率性

10倍効率化:同等性能で大幅な高速化

スケーラビリティ

実用的:商用環境での現実的なデプロイ

ベンチマーク性能

ベンチマーク タスク内容 Tongyi DeepResearch 比較対象
BrowserComp ブラウザ操作タスク SOTA級 既存オープンソース
Humanity's Last Exam 複雑な推論問題 高性能 商用エージェント
WebWalkerQA Web探索Q&A 優秀 英中両言語

⚖️ 実務的考慮事項

選択指針

🔬 Tongyi DeepResearch推奨

  • 研究・実験・カスタム開発
  • モデル改変・再学習が必要
  • 独自エージェント開発
  • コスト最適化重視

🤖 OpenAI系推奨

  • 迅速な商用統合
  • 安全管理・ガバナンス重視
  • 確実な制御が必要
  • プラグインエコシステム活用

リスクと制限事項

  • 外部依存性:Web探索・スクレイピングの安定性とレイテンシ
  • 利用規約:外部サイトの利用条件遵守が必要
  • 情報信頼性:フェイクニュース・誤情報の混入リスク
  • ログ管理:機微情報を含むデータの適切な管理

コスト・スケーリング

  • GPU要件:BF16対応GPU(A100/H100推奨)
  • 量子化対応:4bit/GGUF版で小型GPU対応
  • MoE効率化:実際の推論コストは30Bの1/10程度
  • インフラ:MoE対応ランタイムとGPU構成が重要

🌟 エコシステムと将来性

周辺ツール群

  • spring-ai-alibaba:Java向けエージェントフレームワーク
  • GitHub統合:継続的なアップデートとコミュニティ貢献
  • Hugging Face Hub:モデル配布とコミュニティ量子化
  • 量子化版:GGUF・4bit等の軽量化版コミュニティ提供

コミュニティ反応

  • GitHub:活発な開発とIssue対応
  • Hugging Face:高評価とダウンロード数
  • LinkedIn・Reddit:技術コミュニティで注目
  • 「データ+RLレシピ」の技術的革新が評価

実用化への道筋

  1. プロトタイプ作成:小規模サンプルでの動作確認
  2. データポリシー整備:外部ブラウズのログ管理
  3. 量子化実験:実運用環境での性能評価
  4. セキュリティ強化:アクセス制御とログ監査
  5. 商用展開:Apache 2.0での自由な商用利用

🔗 関連リソース

情報源:GitHub README、Hugging Face、公式ブログ
公開日:2025年9月中旬
スライド作成:2025年9月18日