によるAPとEuroNews
公開されています
この記事を共有してください
科学者は、脳の活動を音に変換するAIモデルを訓練し、脳卒中の生存者が発話を取り戻すのを助けました。
科学者は、スピーチに関する考えを話し言葉にリアルタイムで翻訳できるデバイスを開発しました。
それはまだ実験的ですが、彼らは脳コンピューターのインターフェースがいつか話せない人に声を与えるのを助けることができることを望んでいます。
新しい研究では、脳卒中後18年間話すことができなかった四肢麻痺の47歳の女性のデバイスのテストについて説明しました。医師は、臨床試験の一環として、手術中に脳にそれを移植しました。
それは「流fluentな文章に語る意図を変換する」と、ジャーナルNature Neuroscienceに掲載された研究の共著者であるGopala Anumanchipalliは述べた。
音声用の他の脳コンピューターインターフェイス(BCIS)は、通常、文の思考とコンピューター化された言葉遣いの間にわずかな遅延を持っています。このような遅延は、会話の自然な流れを混乱させる可能性があり、誤解や欲求不満につながる可能性があると研究者は述べた。
これは「私たちの分野ではかなり大きな進歩です」と、米国のカンザス大学のスピーチと応用神経科学研究所のジョナサン・ブルンバーグは言いました。彼は研究の一部ではありませんでした。
インプラントの仕組み
カリフォルニアのチームは、電極を使用して女性の脳の活動を記録し、脳内で静かに文章を話しました。
科学者たちは、怪我の前に彼女の声を使って作ったシンセサイザーを使用して、彼女が話したであろう音声を作成しました。その後、彼らは神経活動を音の単位に変換する人工知能(AI)モデルを訓練しました。
米国のカリフォルニア大学バークレー校のAnumanchipalli氏によると、会議や電話をリアルタイムで転写するために使用される既存のシステムと同様に機能します。
インプラント自体は、脳の音声中心に位置しているため、耳を傾け、それらの信号は文章を構成する音声に翻訳されます。
これは「ストリーミングアプローチ」であり、Anumanchipalli氏によると、80ミリ秒の音声(約半分の音節)がレコーダーに送られています。
「文が終わるのを待っていません」とAnumanchipalliは言いました。 「それはその場でそれを処理しています」。
自然なスピーチの速いペースに追いつく可能性があるとすぐに解読するスピーチは、Brumberg氏は述べています。音声サンプルの使用は、「言語の自然性の大きな進歩になるだろう」と付け加えました。
この作業は米国国立衛生研究所(NIH)によって部分的に資金提供されていましたが、Anumanchipalliは、最近のNIHの研究削減の影響を受けていないと述べました。
テクノロジーが広く使用できるようになる前にさらに研究が必要ですが、「持続的な投資」により、10年以内に患者が利用できる可能性があると彼は言いました。