人工智慧或能將大腦訊號轉換成聲音,造福無法說話的患者
對於癱瘓而無法說話的患者來說,他們僅能憑藉眼球的移動或其他微小的移動訊號,來控制游標選擇眼前螢幕的單字。
知名天文物理學家史蒂芬·霍金(Stephen Hawking)便是利用臉頰的肌肉運動,控制游標輸入欲說的文句。
但此方法受限於速度上的問題,使患者無法及時的參與話題。
因此,科學家已測試將大腦訊號透過神經網路(neural networks)進行解讀,試著直接重現患者的聲音。
大腦訊號
神經網路需要對每個人進行學習。為提供最精準的數據來源,最佳的方法便是打開頭蓋骨直接量測大腦訊號。
但能夠直接量測大腦訊號的機會並不常見。
其中一個機會是在進行腦瘤移除手術時,會讀取大腦訊號避免醫師誤觸大腦攸關話語能力的部位;
其次則是癲癇患者在進行手術前,會植入電極找出不正常放電的來源區域。
因此數據的來源與收集時間都相當有限,最多只有 20 至 30 分鐘的時間。
「真正的挑戰在於如何在完全無法說話的患者上重現此結果。」
現行的研究方法是將語言經由大腦訊號輸入神經網路進行學習,
但此方法無法用於沒有口語能力的患者,因為我們無法理解這些大腦訊號所代表的意義為何。
沒有留言:
張貼留言