哥倫比亞大學的神經工程師開發了一種支持AI的技術,可以將思想轉化為可理解和可識別的演講,這一突破最終可以幫助無法講話的人。
對語音系統的想法
對於發表在期刊上的研究科學報告1月29日,來自哥倫比亞大學的Mortimer B. Zuckerman Mind Brain行為研究所的Nima Mesgarani,同事涉及癲癇患者,他們進行了定期腦部手術來培訓輔助聲碼器。
Vocoder是一種計算機算法,在接受人們的錄音培訓後可以綜合語音。這是Apple的Siri和Amazon Echo使用的技術,它們可以學會從錄音中重新創建語音,並對問題做出口頭回答。
然而,該研究的聲碼器需要從大腦活動中學習,而不是從錄音中學習。為此,研究人員要求患者在測量大腦活動的模式時聽取不同人所說的句子。
一旦系統熟悉大腦活動,研究人員就要求患者聽取一個人的錄音,以記錄零,並記錄下來大腦活動並通過Vocoder運行。
研究人員使用神經網絡,一種模仿人腦細胞結構的人工智能,分析並清潔了聲碼器對信號的響應而產生的聲音。由此產生的聲音是一種機器人聲音,它背誦了一系列數字。
使失去說話能力的人受益的系統
研究人員希望接下來要測試更複雜的單詞和句子。他們還想在一個人說話或想像說話時對產生的腦信號進行測試。
他們的最終希望是該系統成為植入物的一部分,類似於植入物癲癇患者,這可以將佩戴者的想法轉化為單詞。
“在這種情況下,如果佩戴者認為'我需要一杯水,我們的系統可能會將大腦信號帶到該思想中,並將它們變成綜合的,口頭的語言,” Mesgarani說。 “這將是一個改變遊戲規則的人。這將使任何失去說話能力的人,無論是通過傷害還是疾病,都是與周圍世界建立聯繫的機會。”