AI教育・学習

LLM活用授業で測る学生の成長:プレテスト・ポストテスト設計ガイド

はじめに

近年、大学の一般教養科目などでも大規模言語モデル(LLM)を活用した授業が注目を集めています。しかし、実際に授業で生成系AIを用いて学習効果を高めるには、その成果を客観的に測定できる評価方法が欠かせません。特に、授業前後で学生の能力がどのように変化したのかを把握するうえで「プレテスト(事前テスト)」と「ポストテスト(事後テスト)」を適切に設計することがポイントとなります。

本記事では、LLM活用授業で重要となる3つの能力――知識理解問題解決力生成AIの活用能力――を中心に、どのようにプレ・ポストテストを組み合わせれば学生の成長を多角的に評価できるのかを解説します。授業設計のヒントとして、各能力の評価形式や測定内容、そしてAI時代ならではの留意点を整理していきます。


1. プレテストとポストテストの役割

授業の効果検証を目的としたプレ・ポストテストは、授業前の学習到達度授業後の成長度合いを対比するうえで役立つ評価手法です。プレテストで得られた結果を活用しながら授業計画を調整し、ポストテストでその指導効果を数値的・質的に確認することにより、以下のメリットが期待できます。

  • 学習目標との整合:授業の狙いと実際の学習成果がどの程度一致しているかを検証できる
  • 弱点の早期発見:プレテスト結果から、学生がつまずいているポイントを特定し授業内で補完できる
  • 教授法改善:ポストテストの結果を踏まえ、次年度以降の授業デザインや教材開発に役立てられる

本記事では、3つの力を測定するための具体的なテスト形式と評価基準の例を示し、授業を通じて学生がどのように成長したかを明確に可視化する方法を提案します。


2. 知識理解の測定:選択式テストを中心に

2-1. 適した評価形式

授業で扱う基礎知識や概念をしっかり理解しているかを測るには、主に客観テスト(多肢選択式問題や○×問題など)が有効です。短時間で多くのトピックを網羅でき、解答の正誤が明確に判断しやすいため、テストの信頼性も高まります。

2-2. 出題内容と設問例

  • 出題内容の例
    • 大規模言語モデル(LLM)の基本的な仕組み
    • 生成AIの社会的影響や倫理面
    • 授業内で扱った主要概念の定義や応用
  • 設問例
    • 多肢選択式:「次のうちLLMの特徴として正しいものはどれか」
    • 短答式:「検索エンジンと生成AIの仕組みの違いを簡潔に説明せよ」

2-3. 評価と活用

プレ・ポストテストで同一または類似の問題を出題し、正答率の上昇誤答パターンの変化を比較します。平均点やスコア分布の移り変わりを確認すると、授業を通じた理解度の向上度合いを捉えやすくなります。


3. 問題解決力の測定:オープンエンド課題とルーブリック評価

3-1. 非定型問題で思考プロセスを引き出す

問題解決力の評価には、単一の正解に限定されないオープンエンド課題が適しています。具体的には、ケーススタディやプロジェクト型の課題を提示し、学生自身に分析・解決策の立案・結果予測を行わせます。

3-2. ルーブリックを用いた多角的評価

オープン課題の成果物は、ルーブリック(評価規準表)で複数の観点から評価します。例えば以下の項目を段階評価し、プレ・ポストテストの変化を追跡します。

  1. 問題の理解・定義
    • 背景や課題の本質を的確に捉えられているか
  2. 解決策の創出と根拠
    • 複数の案を比較し、論理的に最適な案を選択しているか
  3. 実行・結果の分析
    • 提案内容を客観的に検証し、リスクなども考慮できているか
  4. 振り返り・考察
    • 成果や課題を踏まえ、次の行動を計画できているか

3-3. 授業前後でのスキル向上の可視化

プレテスト時点では問題の捉え方や解決策の具体性が不十分でも、授業を通じて思考プロセスの筋道や根拠の示し方が洗練されていけば、ルーブリック各観点のスコアが向上します。点数や観点ごとのコメントをフィードバックすることで、学生はどの部分が改善されたかを直感的に把握しやすくなります。


4. 生成AIの活用能力:AIリテラシーと実践スキルの評価

4-1. AIリテラシーの筆記テスト

生成AIに関する基本的な原理や限界、倫理的側面などを理解しているかを、従来の筆記テストや選択式問題でチェックします。具体的には「AIの出力を検証する方法」「AIが得意・苦手とするタスクの特徴」などを出題し、AIリテラシーの向上度合いを計測します。

4-2. 実践課題:LLMを使った情報収集・アウトプット

一方で、実際にLLMを活用する能力は、実践課題で評価するのが効果的です。たとえば「ChatGPTを用いて指定の課題を分析し、論点をまとめたうえで自分なりの考えを付け加えてレポートを作成する」といったタスクをプレ・ポストで実施し、以下のような観点をルーブリックで採点します。

  • プロンプト設計力:目的に応じた具体的な指示や追加の質問が行えているか
  • 反復的改良:得られた回答を検証し、適宜再質問やリフレーズで質を高めているか
  • 情報の信頼性確認:AI出力をうのみにせず、外部情報との照合や根拠の補強ができているか
  • 独自の視点や倫理的配慮:AIを使った結果を自分なりに加工・考察し、学問倫理を守っているか

4-3. プレとポストの比較でわかるスキルの成長

プレテストでは、学生が漠然としたプロンプトで表面的な回答しか得られないケースが多いかもしれません。しかし授業後には「適切な追加質問を通じて情報を深堀りし、自分の言葉でまとめ直す」といった高度な使い方が可能になっていれば、AI活用スキルが向上した証拠と言えます。


5. プレ・ポストテストを設計する際の留意点

5-1. 学習目標とテスト内容の整合

何を測りたいかが不明確なままではテスト本来の目的を果たしません。授業で育成したい能力(知識理解・問題解決力・AI活用能力)を明確にし、それぞれに合致した設問を用意しましょう。

5-2. 同等条件での実施

プレとポストで同様の形式難易度を保ち、結果を数値的に比較しやすくします。全く同じ問題を出す場合は記憶効果のリスクを考慮し、難易度が同等の別問題を用意する「平行テスト」を作るのも一案です。

5-3. テスト形式の組み合わせ

複合的な能力を測るためには、選択式テスト + 記述式課題 + AI活用実演など、複数形式を組み合わせると精度が高まります。ただし学生の負担も考慮し、評価目的に沿った最小限の設問数・時間でまとめる配慮も重要です。

5-4. 学生への動機づけ

プレテストは成績評価に直接つながらないことが多いですが、「自己の弱点を把握するチャンス」として位置づけると学生の取り組み意欲を高められます。ポストテストは「授業で学んだことを存分に発揮する機会」と説明し、積極的に挑戦させましょう。

5-5. 公平性と学問倫理

生成AIを活用する評価では、不正利用やコピペが起きないよう、利用範囲を明確化することが大切です。AI使用の有無が評価に大きく関係する場合は、ログの提出やプロンプト履歴の記載を義務づけるなどの対策も検討しましょう。

5-6. フィードバックと教育改善

得られたプレ・ポストテストの結果は、スコア差や観点別の成長度を示すだけでなく、次の学習や教授法の改善に役立ちます。ルーブリックを用いた場合は各評価観点を学生に返却し、「何が伸びて、どこが課題か」を明確に認識させると学習意欲向上につながります。


6. まとめ

LLMをはじめとする生成系AIを活用した授業では、学生が身につけるべき能力も多岐にわたります。そこで、知識理解問題解決力生成AI活用能力の3つを柱とし、それぞれに合ったプレ・ポストテストを設計することが効果的です。客観的な選択式問題で基礎知識を測り、オープンエンド課題とルーブリック評価で高次思考を捉え、さらにAIリテラシーと実践力を総合的にチェックすることで、学生の成長を多角的かつ正確に把握できます。

本来、テストとは「合否」を決めるだけでなく、学生自身が学びを振り返り、次のステップへ進むための指針を得る機会でもあります。プレ・ポストテストをうまく組み合わせることで、授業設計の改善や学生の意欲向上に結びつけられるでしょう。

関連記事

コメント

この記事へのコメントはありません。

最近の記事
  1. 【2025年最新版】OpenAI「o3」と「o4-mini」のシステムカードの解説

  2. 中小企業でも分かる「OpenAI Preparedness Framework」ガイド

  3. ChatGPT O3モデル徹底解説――GPT‑4を超える“考えるAI”の特徴・料金・活用術

最近の記事
おすすめ記事
  1. 【2025年最新版】OpenAI「o3」と「o4-mini」のシステムカードの解説

  2. 中小企業でも分かる「OpenAI Preparedness Framework」ガイド

  3. ChatGPT O3モデル徹底解説――GPT‑4を超える“考えるAI”の特徴・料金・活用術

  1. 即戦力キャッチをAIで!自社独自の魅力を引き出すPR文案作成

  2. 【徹底解説】推論モデルとGPTモデルの違いと活用法|OpenAI公式ガイドを基にした実践ノウハウ

  3. 未来を拓く「AGI(汎用人工知能)」とその影響と対応策

TOP