2019年1月21日

人工智慧或能將大腦訊號轉換成聲音,造福無法說話的患者

人工智慧或能將大腦訊號轉換成聲音,造福無法說話的患者

https://tomorrowsci.com/technology/%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7-%E5%A4%A7%E8%85%A6%E8%A8%8A%E8%99%9F-%E8%BD%89%E6%8F%9B-%E8%81%B2%E9%9F%B3-%E9%80%A0%E7%A6%8F-%E7%84%A1%E6%B3%95%E8%AA%AA%E8%A9%B1-%E6%82%A3%E8%80%85/

對於癱瘓而無法說話的患者來說,他們僅能憑藉眼球的移動或其他微小的移動訊號,來控制游標選擇眼前螢幕的單字。

知名天文物理學家史蒂芬·霍金Stephen Hawking)便是利用臉頰的肌肉運動,控制游標輸入欲說的文句。

但此方法受限於速度上的問題,使患者無法及時的參與話題。

因此,科學家已測試將大腦訊號透過神經網路neural networks)進行解讀,試著直接重現患者的聲音

大腦訊號

神經網路需要對每個人進行學習。為提供最精準的數據來源,最佳的方法便是打開頭蓋骨直接量測大腦訊號

但能夠直接量測大腦訊號的機會並不常見。

其中一個機會是在進行腦瘤移除手術時,會讀取大腦訊號避免醫師誤觸大腦攸關話語能力的部位;

其次則是癲癇患者在進行手術前,會植入電極找出不正常放電的來源區域。

因此數據的來源與收集時間都相當有限,最多只有 20 30 分鐘的時間。

「真正的挑戰在於如何在完全無法說話的患者上重現此結果。」

現行的研究方法是將語言經由大腦訊號輸入神經網路進行學習,

但此方法無法用於沒有口語能力的患者,因為我們無法理解這些大腦訊號所代表的意義為何。

 

沒有留言:

搜尋

標籤

總網頁瀏覽量