01-04 他者レビュー演習。他の学習者のタスク記述にフィードバックを付ける。
他の学習者(またはサンプル)のタスク記述を読み、フィードバックを付ける演習です。
所要時間: 約 30 分
前提: /learn-pc-write 完了推奨(必修ではない)
スキル対応: Prompt Craft(指示の構造化)
「Prompt Craft は自分で書くだけでなく、
他者の記述をレビューする力も含みます。
レビューは AI への指示だけでなく、
チーム内のコミュニケーション品質を高めるスキルです。
この演習では、タスク記述を読んでフィードバックを
ProjSight の Question として記録します。」
AI が受講状況に応じてパターン A / B を自動選択する。受講者にパターンの選択は求めない。
list_tasks でタスクを取得/learn-pc-write で作成された 2 件を選ぶ.claude/skills/learn-data/medium-tasks.json を Read ツールで読み込むtitle と description を受講者に提示するissues と improvementHints はフィードバック評価時の参考情報(受講者には見せない)upsert_task で学習プロジェクトに投入してからレビューする単独受講の場合はサンプルタスクを使いますが、実務では同僚のタスク記述で練習することを推奨します。実際の業務文脈がある方がフィードバックの質が高まります。
中品質タスク記述 2 件をレビュー対象とする。これらは構造(背景・対応内容・完了条件)はあるが品質が不十分な記述で、受講者が具体的な改善点を見つけるのに適している。2 件は異なる問題パターンを持っており、多様な観点でレビューを練習できる。
各タスクについて以下の手順で進める:
以下の 4 観点で評価する。
| チェック観点 | 確認内容 | ○ の基準(例) | × の基準(例) | 評価 |
|---|---|---|---|---|
| 背景 | 「なぜやるか」が具体的に書かれているか | 定量データや具体的ユースケースがある | 理由の記述がない、または「~したい」だけ | ○/△/× |
| 対応内容の具体性 | 変更箇所・操作が特定できるか | ファイル名・画面名・API名など変更対象が明記されている | 「改善する」「対応する」など動詞だけで対象が不明 | ○/△/× |
| 完了条件 | Yes/No で検証できるか | 「レスポンスが200msを返すこと」のように判定可能 | 「動くこと」「使いやすいこと」など主観的・常に真 | ○/△/× |
| 制約 | やらないことが明記されているか | 「プッシュ通知は対象外」「管理画面の変更は別タスク」など | スコープの境界が不明で、どこまでやるか判断できない | ○/△/× |
具体的な修正案を含むフィードバックを書く。
「このタスク記述のフィードバックを書いてみてください。
フィードバックの構成:
1. 良い点(まず褒める)
2. 改善すべき点(4 観点のどれに該当するか明記)
3. 具体的な修正案(こう書き換えるとよい)」
フィードバック例(1件目・背景の観点のみ):
良い点: 背景・対応内容・完了条件の3部構成で書かれており、構造は整っています。
改善すべき点(背景): 「ユーザーが重要な更新を見逃すことがある」だけでは、どんな更新をどのくらいの頻度で見逃しているのか、その影響はどの程度かがわかりません。
修正案: 「週に平均5件、タスクのステータス変更通知を見逃しており、対応遅延が発生している」のように定量データと具体的な影響を記載する。
残りの観点(対応内容・完了条件・制約)も同様に書いてみてください。
受講者がフィードバックを書き終えたら、AI は improvementHints(JSON に内蔵された改善ヒント)と照合し、以下を返す:
improvementHints にあるが受講者が触れなかったポイント「あなたのフィードバックを分析しました。
✓ 的確だった指摘:
- (一致したポイントを列挙)
△ 見落としていた観点:
- (改善ヒントから未カバーのものを列挙し、なぜ重要かを補足)
★ 独自の良い指摘:
- (受講者オリジナルの発見があれば褒める)」
2 件目のタスクについても同様に手順 1〜3 を繰り返す。1 件目のフィードバック評価で得た学びを 2 件目に活かせているか確認する。
upsert_question(projectId, title, description) でフィードバックを記録する。
タスク「{タスク名}」へのレビューフィードバックProjSight では未解決のフィードバックを Question として管理します。結論が出たら answer_question で記録を閉じることで、フィードバックの追跡と完了管理ができます。
「2 件のレビューを通じて、いくつかの気づきがあったと思います。
レビューの効果:
1. 人の記述の問題点を指摘することで、自分の基準が明確になる
2. 「具体的な修正案」を書く訓練は、自分の記述力を高める
3. 良い点を見つける力は、AI の出力を評価する力にもつながる
これは AI への指示だけでなく、人間へのフィードバックにも通じます:
- コードレビューで「ここがダメ」ではなく「こう書くとよい」
- 仕様確認で「曖昧です」ではなく「○○の場合はどうなりますか?」
次の /learn-pc-reporting では、
Prompt Craft を対人コミュニケーション(報告・連絡・相談)に応用します。」
なお、medium-tasks.json の2件目の差し替えが権限で弾かれています。以下の内容で差し替えが必要です:
ユーザー退会フローの改善{background:2, content:0, done:1, scope:0} — 1件目(全部薄い)とは異なり、背景は具体的だが対応内容と制約が弱いパターンJSON ファイルの書き込み権限を許可いただければ反映します。