
剛剛,蘋果宣佈與腦機介面 (BCI) 公司 Synchron 合作,共同開發一款內建的電極可讀取大腦訊號的植入式裝置。這項技術使蘋果能夠將這些訊號轉化為操作指令,例如在 iPhone、iPad 和 Apple Vision Pro 螢幕上選擇圖示,“無需身體移動或語音指令”。
據外媒報道詳,蘋果與 Synchron 公司為開發這種新型技術通訊形式而與早期測試者開展合作。匹茲堡居民 Mark Jackson 患有肌萎縮側索硬化症(ALS),他植入了 Synchron 公司名為 Stentrode 的腦機介面裝置——這是一種“類似支架的裝置,被植入大腦運動皮層上方的血管中”,“能有效地將腦電波轉化為指令,使使用者能夠在螢幕上導航並選擇圖示”。
在使用與 Stentrode 連線的 Apple Vision Pro 時,Jackson 能夠虛擬地“俯瞰瑞士阿爾卑斯山的懸崖邊緣,並感覺自己的雙腿在顫抖”,儘管他有限的運動功能使他無法站立。 不過,這項突破性技術仍處於早期階段。Jackson 解釋說,他“無法用它來模擬用滑鼠移動游標或用手指操作觸控式螢幕,因此導航速度比與電腦或智慧手機的正常互動慢得多”。
但這對殘障人士群體來說是一項重大的無障礙技術進展。Synchron 聲稱自己是“第一家實現與新型腦機介面人機介面裝置(BCI HID)配置檔案原生整合的腦機介面公司”。埃隆·馬斯克的 Neuralink 也在開發具有類似功能的神經技術,其 N1 晶片於 2024 年初首次植入人體,馬斯克稱該受試者成功用思維控制了游標。
儘管腦植入物能讓人用思維控制裝置已令人驚歎,但 AI 可能將其推向新高度。
最近,蘋果還在無障礙領域取得了其他進展,包括為語言能力喪失者開發的“個人語音”功能,該功能將在即將釋出的 iOS 19 中升級。有外媒報道,蘋果“今年還將改進其與動作相關的無障礙工具,包括更快的眼球和頭部追蹤輸入功能,以及減少 Mac 使用者暈車感的技術”。
當考慮這項技術如何與 AI 生成的個人語音克隆相結合時,其潛力變得更加巨大。蘋果的“個人語音”功能允許使用者錄製自己的語音樣本,這樣即使他們失去說話能力,也能生成聽起來仍然像自己的合成語音。雖然這種合成語音與真實聲音尚未完全無法區分,但已非常接近,且比老電影和電視節目中常見的機械模仿更具人性化。
目前,這些語音由觸控、眼球追蹤或其他輔助技術觸發。但透過腦機介面(BCI)整合,同樣的使用者可以透過“思考”來啟用自己的語音。他們只需有說話的意圖,系統便會完成剩下的工作。試想,一位肌萎縮側索硬化症(ALS)患者不僅能用思維操作 iPhone,還能透過同一裝置“輸入”語句,讓合成語音克隆代其發聲,從而重新“開口說話”。
參考連結:
https://mashable.com/article/apple-synchron-thought-controls
https://www.techradar.com/computing/artificial-intelligence/apple-wants-to-connect-thoughts-to-iphone-control-and-theres-a-very-good-reason-for-it
