その他業務
Copilot CLIのマルチモデル切替機能を活かし、顧客から届いた大量資料を「2プロンプト」で即座に分析・俯瞰資料化するワークフロー。GPTの深い洞察とClaudeの構造化力を掛け合わせ、単一モデルでは到達できない品質を実現します。
大量資料 → 即時横断分析 → 俯瞰資料化
Copilot CLIのマルチモデル切替機能を活かし、顧客から届いた大量資料を「2プロンプト」で即座に分析・俯瞰資料化するワークフローです。
フローの全体像
このワークフローの核心: GPTの「深い論理的洞察・仮説生成」と Claudeの「構造化・俯瞰・エグゼクティブ視点」を2段階で組み合わせること。1モデルでは到達できない品質が得られます。
前提環境
- Copilot Pro+推奨 — Claude Opus や高負荷モデルにアクセスしやすい
- Copilot CLIインストール済み —
npm install -g @github/copilot - GitHub認証済み —
copilot→/login - macOS / Linux / Windows 対応
分析専用ワークスペースの作成
毎回同じ構造でフォルダを作ることが、Copilotの横断参照精度を最大化する鍵です。
推奨構造
├── raw/ # 生資料(PDF/Word/Excel/画像)
├── docs/ # Markdown化した資料(メイン解析対象)
├── analysis/ # Phase1: 深層分析結果
├── deliverables/ # Phase2: 最終俯瞰資料
├── .github/
│ └── copilot-instructions.md # 分析ルール(自動適用)
├── AGENTS.md # カスタムエージェント定義
└── analysis-checklist.md # 分析観点テンプレート
ワンコマンドで作成するスクリプト
#!/bin/bash
# ~/bin/new-analysis-workspace.sh として保存
mkdir -p "$1"/{raw,docs,analysis,deliverables,.github}
cp ~/.templates/copilot-instructions.md "$1/.github/"
echo "# 分析ワークスペース: $1" > "$1/README.md"
echo "ワークスペース作成完了: $1"new-analysis-workspace.sh customer-acme-202603
cd customer-acme-202603このスクリプトを1回作っておけば、以後は「資料受領 → スクリプト実行 → cd → 2プロンプト」で分析完了。再現性100%。
分析専用 Custom Instructions
以下のテンプレートを .github/copilot-instructions.md に保存します。Copilot CLIが自動読み込みします。
# 顧客資料分析エージェント 厳守ルール
## 基本哲学(全Phase共通)
- 常にMECE・ロジカル・仮説駆動で思考
- 全資料を「1つの巨大知識グラフ」として横断参照
- 矛盾・不足情報は必ず【情報不足】タグ + 優先度(高/中/低)で明示
- 出力は必ずMarkdown(テーブル多用、箇条書き明確)
- 日本語出力厳守
- バイアス排除:【事実】/【推測】/【仮説】タグで区別
## 出力品質基準
- 引用元ファイル名 + ページ/セクションを必ず明記
- 必要に応じてMermaid記法で関係図・タイムラインを挿入
- 出力前に「MECE確認」「不足タグ全網羅」「論理矛盾ゼロ」を自己検証
## Phase1(GPT深層分析モード)
- 深い論理的洞察・仮説生成を優先
- 「なぜ?」を最低3階層まで掘り下げる
- 出力先: analysis/comprehensive-analysis-v1.md
## Phase2(Claude俯瞰資料化モード)
- 構造化・俯瞰・エグゼクティブ視点
- 「次に顧客に聞くべき質問リスト」を必ず作成
- 出力先: deliverables/executive-overview-v1.mdCustom Instructionsはモデル切替しても一貫して適用されます。Phase1/Phase2の出力先を固定することで、ファイル管理が混乱しません。
資料の前処理 — Markdown変換が精度の鍵
Copilotは Markdown が最も高精度です。PDFのままでは表・図・レイアウトが崩れやすいため、事前変換が重要です。
方法1: Copilot自身に変換させる(最速)
@raw/**
すべてのファイルを高精度Markdownに変換せよ。
- 表はテーブル形式
- 図は詳細説明テキスト化
- ファイル名は「YYYYMMDD_テーマ.md」形式
- docs/フォルダに保存方法2: 専用ツール併用(高精度)
複雑なレイアウトや日本語資料には専用ツールが有効です:
- MinerU — 無料・最高精度のPDF変換ツール
- Marker / LlamaParse — 高精度な代替オプション
docs/ 内に数十ファイルあっても問題ありません。@docs/** で一括横断参照可能。100ファイル超えたらサブフォルダに分割を推奨。
Phase1: GPT深層分析(横断ロジカル分析)
GPTの強み: 深い論理的洞察、仮説生成、多角的分析、「なぜ?」の掘り下げ
copilot/model GPT-5.4
@docs/**
全資料を限界までロジカルに横断読み込み、以下の構造で包括分析せよ:
1. 全体像マッピング(テーマ・時間軸・関係性グラフ)
2. 深いインサイト・仮説群
3. ステークホルダー分析(影響力×関心度)
4. 矛盾点・一貫性問題の詳細リスト
5. 【情報不足】項目(優先度高→低)
6. 戦略的示唆(短期/中期/長期)
出力: analysis/comprehensive-analysis-v1.md に詳細記述。
まず「現在参照したファイル数: XX」と報告せよ。全体像マッピング
テーマ・時間軸・関係性グラフで全資料の構造を可視化
深いインサイト・仮説群
「なぜ?」を3階層まで掘り下げ、論理的な仮説を生成
ステークホルダー分析
影響力 × 関心度のマトリクスで利害関係者を整理
矛盾点・一貫性問題
資料間の矛盾を検出し、優先度付きでリスト化
情報不足項目
【情報不足】タグで優先度高 → 低の順に整理
戦略的示唆
短期 / 中期 / 長期に分けたアクション提案
Phase2: Claude俯瞰資料化(エグゼクティブ資料)
Claudeの強み: 構造化、俯瞰、一貫性、最終出力の「読みやすさ」
/model Claude Opus 4.6
@analysis/comprehensive-analysis-v1.md @docs/**
上記分析+元資料を基に、エグゼクティブ向け俯瞰資料を作成:
1. エグゼクティブサマリー(300文字以内)
2. 主要テーマ別整理(各テーマに洞察+証拠引用+不足)
3. リスク/機会マトリクス(テーブル形式)
4. タイムライン別アクションプラン
5. 「次に顧客に聞くべき質問リスト」(即依頼可能形式・5〜10個)
6. 提案Next Step(具体的アクション+所要時間)
出力: deliverables/executive-overview-v1.md
視認性・論理構造を最優先。Mermaid図を2つ以上含めること。Phase1の出力をPhase2の入力に使うことで、2つのモデルの強みを掛け合わせます。GPTの「深さ」× Claudeの「構造化」= 単一モデルでは到達できない品質。
効率化・自動化Tips
- Effort調整 — GPT時に
/effort highまたは「最高精度・深層思考モードで」と追加 - トークン対策 — 大量資料時は
/compactで履歴圧縮 - カスタムエージェント — AGENTS.mdに「Senior Document Analyst」定義
- スクリプト化 — Phase1/Phase2のプロンプトを
.shファイルに保存して自動実行 - セキュリティ — 機密資料時は
--allow-allを使わない。組織ポリシー確認
タグシステムの活用
分析出力内の【情報不足】【事実】【推測】【仮説】タグで:
- 不足検知 → 即顧客依頼 — 情報が足りない箇所を即座に特定
- 事実と推測の分離 → 意思決定精度向上 — 根拠の強度を明確化
- 検索・フィルタリング → 後から必要な情報を即発見 — タグで構造化された分析結果
エッジケース対応
| 状況 | 対応 |
|---|---|
| 資料が重複 | 重複を明示し最新版を優先 |
| 矛盾する資料 | 両論併記+「顧客確認必須」タグ |
| 英語資料混在 | 日本語訳を併記(要約レベル可) |
| 100ファイル超 | サブフォルダ分割+まず全体構造マップを作成 |
| 数値データ多め | 統計的傾向(平均・中央値・外れ値)を自動算出 |
| 画像・図が多い | テキスト化済みとみなし【図説明】タグで参照 |
まとめ — 1回作れば一生使える
このテンプレートを1セット作っておけば:
資料受領
ワークスペーススクリプト実行(5分)
前処理
Markdown変換(5分)
Phase1
GPT深層分析(5分)
Phase2
Claude俯瞰資料化(5分)
成果物完成
エグゼクティブ資料+不足質問リスト完成
分析結果の最終確認チェックリスト
AI分析結果を顧客に送付する前に、以下を必ず人間が確認してください:
- 事実確認: 【事実】タグの内容が元資料と一致しているか
- 推測の妥当性: 【推測】【仮説】タグの内容が論理的に妥当か
- 不足の網羅性: 【情報不足】タグが実際の不足箇所を全てカバーしているか
- 機密情報: 顧客名・機密データが適切に匿名化されているか
- 数値の正確性: 引用数値が元資料の数値と一致しているか
- 質問リストの質: 「次に聞くべき質問」が的確で、顧客にそのまま送れるか
AIは「もっともらしい嘘」を書くことがあります。特に数値データと因果関係の推論は、必ず元資料と照合してください。
PM特化プロンプトテンプレート集
エンジニア以外(PM・ビジネス職)でも即使えるプロンプト集です。
1. 要件整理
@docs/**
この資料群から機能要件と非機能要件を分離し、
優先度(Must/Should/Could/Won't)でMoSCoW分類せよ。
矛盾する要件があれば【矛盾】タグで明示。2. PRD(製品要件定義書)作成
@docs/**
以下の構造でPRDを作成せよ:
1. 背景と目的
2. ターゲットユーザー
3. ユーザーストーリー(As a... I want... So that...)
4. 機能要件(Must/Should)
5. 非機能要件(パフォーマンス・セキュリティ)
6. 成功指標(KPI)
7. スコープ外
出力: deliverables/prd-v1.md3. 論点抽出
@docs/**
全資料から「未決定事項」「リスク」「ステークホルダー間の意見の相違」を
抽出し、優先度付きの論点リストを作成せよ。
各論点に「決定に必要な情報」と「推奨アクション」を付与。4. Issue分解
@deliverables/prd-v1.md
このPRDから実装可能なGitHub Issueを生成せよ:
- 1 Issue = 1機能(4時間以内で完了可能な粒度)
- 各IssueにAcceptance Criteria付き
- 依存関係がある場合は明記
- 優先度ラベル付きこれらのテンプレートを .github/skills/pm-toolkit/SKILL.md として保存しておけば、Copilotが文脈に応じて自動ロードします。PMの日常業務を劇的に効率化。