南方衛理公會大學之間的聯合項目(SMU)和模擬器製造商CAE探索了飛行訓練期間生物特徵測量的使用,以調查個性化培訓制度的任何好處Ainonline報告。
新穎的方法將生物識別技術與機器學習技術相結合,以衡量各種情況下飛行員的情境意識和飛行員的認知負荷。
生物識別測量包括視覺凝視模式,學生的大小和心率,以確定飛行員的參與度,工作量,情境意識,壓力或疲勞水平。
例如,根據飛行的階段,“貧窮”的凝視模式可能表明工作量很高,而“正確”的凝視模式將顯示出更高的關注和表現。
同樣,更少的眼睛眨眼或較短持續時間的眨眼可能與需要更多關注的任務相關聯,並且可以將心率變異性用於跟踪工作。
使用帶有積分眼線器和腕上磨損設備的虛擬現實耳機收集生物識別數據,然後通過計算機分析相關。
該項目現在正在進入第四年,根據研究人員的說法,一些早期自動化生物識別測試結果很大程度上反映了經驗豐富的人類評估者的評估。
“我們的理論是,模擬期間的生物識別技術將導致比在模擬後詢問幾個問題以衡量其體驗的幾個問題的客觀和準確的測量。” SMU虛擬化中心主任Suku Nair解釋說。
反過來,這將使飛行訓練可能更具個性化,有效和高效。
然而,根據該研究的主要研究者埃里克·拉爾森(Eric Larson)的說法,用生物識別傳感加速學習是一個難以證實的假設。
“這項研究試圖了解如何使用傳感來理解一項艱鉅的任務中學習者的精通水平,例如飛行飛機。我們希望通過成為第一個展示個性化的,自動化的學習是否可以在實際學習場景中表現出功效來推進研究領域。”
在上下文中,該研究最初是為了支持2019年國防部項目,旨在加快對複雜技能的培訓和支持多域名戰爭的培訓。
同年,SMU和CAE(當時的L3Harris Technologies)首先證明了基於生物識別數據的機器學習可以帶來實時準確的性能結果。 L3Harris的飛行訓練技術業務成為CAE萊多斯2020年收購了其生物識別和安全業務。
據報導,該項目的一部分是基於重複測量實驗,使用40個具有不同背景和經驗水平的測試受試者,在受控環境中飛行混合現實(MR)飛行模擬器。
SMU和CAE通過飛行員在愛德華茲空軍基地進行的33架實際飛行操作證明了生理傳感器系統的可行性和實用性。
最近也已經是目光的技術由Microsoft使用作為飛行模擬器遊戲的一部分。