概要Googleは、AIの進化に伴い、批判的思考、協力、創造性、紛争解決、プロジェクト管理などの将来の人間スキルを開発・評価するためのVantage AIシステムを導入しました。テクノロジー企業のGoogleは、未来の人間スキルを育成するためのAIシステムを導入しました。AIが進化し続ける中で、自動化が難しいいわゆる耐久性のあるソフトスキルの価値が高まっています。これには、批判的思考、協力、創造的思考、紛争解決、プロジェクト管理、その他の対人能力が含まれます。「Vantage」として提示されたこのAI駆動の実験システムは、模擬的なインタラクション環境を通じてこれらの能力の開発と評価を支援することを目的としています。この取り組みは、ニューヨーク大学の研究者や教育専門家を含む協力者と共同で開発されました。これは、数学や科学などのコア科目で用いられる手法に似た方法で、学生が将来に備えたスキルを練習し評価できる構造化されたサンドボックスとして機能することを意図しています。現在、このシステムはGoogle Labsを通じて英語で利用可能です。このプロセスは、ユーザーを模擬的なマルチエージェント環境に配置し、AI生成のアバターと討論、協力的な問題解決、プロジェクト計画などのオープンエンドなシナリオで交流させることによって機能します。この設定内で、「エグゼクティブLLM」と呼ばれる調整役が、事前に定められた評価フレームワークを用いて交流を導き、会話の条件を動的に調整します。これには、意見の不一致を導入したり、仮定に挑戦したり、対話の方向性を操作したりして、対象とするスキルに関連する観察可能な行動証拠を生成することが含まれます。## 将来に備えたスキル評価のためのシミュレーションベースAIフレームワーク一方、別のAI評価モデルは、タスク完了後の全インタラクションを分析します。同じ構造化された評価基準を用いて会話の記録を評価し、観察された行動を特定のスキルカテゴリーにマッピングした詳細なパフォーマンスプロフィールを作成します。出力には、定量的なスコアと質的なフィードバックの両方が含まれ、複雑な対人交流を構造化され測定可能なスキル指標に翻訳します。方法論の信頼性を確保するために、このシステムはニューヨーク大学と協力し、18歳から25歳までの188人の参加者を対象とした制御された研究を通じてテストされました。これらの評価は、紛争解決やプロジェクト調整などの協力に関する能力に焦点を当てました。結果は、AIによる適応的な会話誘導が、非指示型のインタラクションモデルと比較して、より多くの評価可能なスキル証拠を生成しながらも、一貫性のある自然な対話の流れを維持できることを示しました。さらに、AI生成のスコアリングと人間の専門家による評価を比較した追加のテストでは、同一の教育評価基準を用いて行われました。結果、AI評価者と人間評価者の一致度は、ヒューマン間の一致度と同等であることが示されました。これにより、自動化されたシステムが構造化された評価の場面で専門家レベルの一貫性を近似できる可能性が示されました。また、OpenMicなどの外部パートナーと連携した検証では、多媒体や文学を用いた創造的・言語的タスクにおいても、AIによる評価と専門家のスコアリングとの強い相関が示され、システムの適用範囲が構造化されたチームワークを超え、よりオープンエンドな創造的領域にも拡大できる可能性を裏付けました。このようなシミュレーションベースのシステムは、近い将来、従来の評価方法と並行して教育環境に組み込まれる可能性があります。これにより、学生は科目知識だけでなく、制御された模擬環境内での対人・認知スキルも評価されることになります。研究のより広い目的は、将来に備えた能力をより大規模に測定可能にし、教育評価を進化する労働市場の要求により密接に連携させることです。
Googleの新しい「Vantage」プラットフォームはAIアバターを使用して、批判的思考、協力、そして実世界のスキルをテストします
概要
Googleは、AIの進化に伴い、批判的思考、協力、創造性、紛争解決、プロジェクト管理などの将来の人間スキルを開発・評価するためのVantage AIシステムを導入しました。
「Vantage」として提示されたこのAI駆動の実験システムは、模擬的なインタラクション環境を通じてこれらの能力の開発と評価を支援することを目的としています。この取り組みは、ニューヨーク大学の研究者や教育専門家を含む協力者と共同で開発されました。これは、数学や科学などのコア科目で用いられる手法に似た方法で、学生が将来に備えたスキルを練習し評価できる構造化されたサンドボックスとして機能することを意図しています。現在、このシステムはGoogle Labsを通じて英語で利用可能です。
このプロセスは、ユーザーを模擬的なマルチエージェント環境に配置し、AI生成のアバターと討論、協力的な問題解決、プロジェクト計画などのオープンエンドなシナリオで交流させることによって機能します。この設定内で、「エグゼクティブLLM」と呼ばれる調整役が、事前に定められた評価フレームワークを用いて交流を導き、会話の条件を動的に調整します。これには、意見の不一致を導入したり、仮定に挑戦したり、対話の方向性を操作したりして、対象とするスキルに関連する観察可能な行動証拠を生成することが含まれます。
将来に備えたスキル評価のためのシミュレーションベースAIフレームワーク
一方、別のAI評価モデルは、タスク完了後の全インタラクションを分析します。同じ構造化された評価基準を用いて会話の記録を評価し、観察された行動を特定のスキルカテゴリーにマッピングした詳細なパフォーマンスプロフィールを作成します。出力には、定量的なスコアと質的なフィードバックの両方が含まれ、複雑な対人交流を構造化され測定可能なスキル指標に翻訳します。
方法論の信頼性を確保するために、このシステムはニューヨーク大学と協力し、18歳から25歳までの188人の参加者を対象とした制御された研究を通じてテストされました。これらの評価は、紛争解決やプロジェクト調整などの協力に関する能力に焦点を当てました。結果は、AIによる適応的な会話誘導が、非指示型のインタラクションモデルと比較して、より多くの評価可能なスキル証拠を生成しながらも、一貫性のある自然な対話の流れを維持できることを示しました。
また、OpenMicなどの外部パートナーと連携した検証では、多媒体や文学を用いた創造的・言語的タスクにおいても、AIによる評価と専門家のスコアリングとの強い相関が示され、システムの適用範囲が構造化されたチームワークを超え、よりオープンエンドな創造的領域にも拡大できる可能性を裏付けました。
このようなシミュレーションベースのシステムは、近い将来、従来の評価方法と並行して教育環境に組み込まれる可能性があります。これにより、学生は科目知識だけでなく、制御された模擬環境内での対人・認知スキルも評価されることになります。研究のより広い目的は、将来に備えた能力をより大規模に測定可能にし、教育評価を進化する労働市場の要求により密接に連携させることです。