近日,卡內基梅隆大學研究團隊在《Nature Communications》發表了一項突破性成果,首次實現了通過非侵入式腦機接口(BCI)系統,以自然映射方式實時控制機器人手的單指動作。該系統基于腦電圖(EEG)信號,結合深度學習模型,能夠精準解碼用戶運動想象(MI)或運動執行(ME)意圖,驅動機械手完成拇指、食指和小指的獨立動作,為腦卒中康復、假肢控制及人機交互開辟了全新路徑。 腦機接口技術近年來發展迅速,尤其在運動功能替代與康復領域展現出巨大潛力。盡管侵入式BCI可實現高精度控制,但其手術風險與長期維護限制了廣泛應用。相較之下,非侵入式EEG-BCI因其安全、便攜與低成本優勢,成為研究熱點。然而,現有系統多采用非直觀映射(如想象左手控制右手動作),且控制精度僅停留在關節或肌群層面,難以實現精細的手指級控制。此外,EEG信號本身存在空間分辨率低、信噪比差等問題,使得單指動作解碼成為技術瓶頸。本研究正是針對這一空白,探索是否可通過深度學習與自然映射機制,實現對同一手不同手指運動的精準實時控制。 本研究圍繞“非侵入式EEG-BCI系統能否實現單指級實時控制”這一核心問題展開,通過多階段實驗設計,系統評估了模型性能、神經機制與用戶適應性。實驗共招募21名具備BCI經驗的右利手健康成年人,完成離線訓練、在線控制與模型微調任務,重點考察2指(拇指 vs 小指)與3指(拇指、食指、小指)分類的解碼準確率、穩定性與神經表征特征。 圖1:實驗流程及概述(圖片來自原文) 結果顯示,僅需一輪在線訓練與模型微調,21名受試者便可在非侵入式EEG-BCI系統中完成雙指運動想象/執行控制,平均準確率達到80.56%/81.10%,三指任務亦穩定在60%以上,且系統延遲僅1秒,逼近半侵入及侵入式接口水平,首次在非手術條件下實現精細單指控制。 實驗采用“前半段在線微調”機制,利用當日數據即時優化EEGNet-8.2,三指分類準確率較基線提升約15%;輔以“在線平滑”算法整合歷史輸出,標簽跳變減少三成以上,既保持準確率又顯著提升機器人動作流暢度,受試者主觀匹配度大幅提高。 圖3:分類準確率結果(圖片來自原文) 深度學習自動提取腦電層次特征,alpha頻段ERD集中于左側感覺運動皮層“手結區”,成為解碼核心;僅用感覺運動區通道即可媲美全頭皮信號,模型同時整合分布式網絡活動,增強魯棒性,為低成本、便攜化家用康復設備奠定理論與工程基礎。 圖4:多個頻段下ERD腦地形圖結果(圖片來自原文) 研究意義 本研究首次在非侵入式BCI系統中實現了單指級、自然映射、實時控制,突破了傳統EEG-BCI在精度與直觀性上的雙重瓶頸。其結果不僅為腦卒中后上肢精細功能障礙的康復干預提供了新范式,也為非侵入式假肢控制、神經反饋訓練及日常輔助設備開發提供了技術基礎。盡管當前系統尚未實現四指獨立控制,但研究已明確展示深度學習、模型微調與神經機制整合在提升BCI性能中的關鍵作用。未來,結合高分辨率神經成像技術、擴展至普通人群及構建真實場景任務,將進一步推動該技術走向臨床應用與家庭普及。 參考文獻: Ding Y, et al. EEG-based brain-computer interface enables real-time robotic hand control at individual finger level [J]. Nature Communications, 2025, 16(1). doi: 10.1038/s41467-025-61064-x.圖2:在線響應結果(圖片來自原文)