完全四肢麻痺: 多くの点で、これは差し迫った死を除けば最悪の医学的診断です。首から下の完全な身体麻痺は、脊髄損傷や筋萎縮性側索硬化症(ルー・ゲーリッグ病としても知られる)などの疾患が原因で発生することがあります。苦しんでいる人は他人に完全に依存するようになりますが、話す能力を失っているために孤独を感じることがよくあります。私たちのほとんどは、ある部屋から別の部屋へ歩くことができるのは当然のことだと考えていますが、重度の障害のある人にとっては、この一般的な動作ですら他人の助けが必要です。
そこで、完全に麻痺した人でも、考えるだけで電動車椅子を制御できると想像してみてください。このような装置は損傷した神経を迂回することで、障害のある人々に自立への多くの扉を開く可能性がある。この記事では、その「もしも」を現実にするために取り組んでいる企業を見ていきます。また、同じテクノロジーを使って、話すことができない人々にどのように音声を復元できるかも明らかにする予定です。
身体的な動作を行うたびに、脳内の神経細胞が微小な電気信号を生成します。これらの信号は脳から出て、軸索や樹状突起に沿って伝わり、神経系を通過します。身体の適切な領域に到達すると、運動ニューロンは動作を完了するために必要な筋肉を活性化します。
ほぼすべての信号は、体の他の部分に進む前に、脊髄内の神経束を通過します。脊髄が重度の損傷を受けるか切断されると、神経系が損傷し、信号が必要な場所に届けられなくなります。神経筋疾患の場合、運動ニューロンは機能を停止します。信号はまだ送信されていますが、身体が信号を実際の筋肉の動作に変換する方法はありません。
神経系の欠陥の問題をどのように解決できるでしょうか? 1 つの方法は、脊髄の損傷やニューロンの変性によって脳からの信号が中断される前に、脳からの信号を遮断することです。これが思考制御車椅子が実現する解決策です。
物理学者のスティーブン・ホーキング博士は筋萎縮性側索硬化症を患っています。ホーキング博士はほぼ完全に麻痺しているが、右手でボタンを押すのに十分な筋肉の制御を保っている。コンピューター画面には、家の車椅子、ドア、電化製品を制御できる一連のアイコンが表示されます。移動カーソルが画面の適切な領域を通過したときにボタンを押すと、画面上の項目を選択できます。
ホーキング博士も同様の言い方をします。画面にはアルファベットが表示され、カーソルがその上を移動します。彼は適切な文字のボタンを押します。完全な文を作成したら、そのテキストを椅子に組み込まれた音声シンセサイザーに送信できます 。ホーキング博士は右手の指を動かすことができるという点で、通信や制御システムとの対話がまったくできない他の多くの麻痺や病気の犠牲者たちと区別している。
アンビエントオーディオシステム
Michael Callahan と Thomas Coleman は、Audeo システムを開発および販売する会社 Ambient を設立しました。 Audeo は当初、重度障害者が通信する方法として構想されていましたが、Ambient は制御システムを拡張して、車椅子の制御やコンピュータとの対話機能を追加しました。
オーデオは、たとえ脊髄が損傷したり、喉の運動ニューロンや筋肉が正常に機能しなくなったとしても、発話を開始するために脳から喉の領域に送られる神経信号はまだそこに届くという考えに基づいている。したがって、たとえ理解可能な言葉を作ることができなくても、意図した発話を表す神経信号は存在します。これは、声下音声として知られています。誰もが声にならないスピーチをします。声に出さずに単語や文章を考えても、脳は依然として口と喉に信号を送ります。
被験者の首にある軽量の受信機(喉仏付近に取り付けられた小さなセンサーのアレイ)がこれらの信号を傍受します。これは、被験者の頭皮に置かれると神経信号を受信できる装置である脳波計とよく似た機能を持ちます。 Audeo は首と喉の部分に直接配置されるため、特定の音声関連信号を受信します。受信機のセンサーは、神経活動を表す微小な電位を検出します。次に、それらの信号を暗号化してからコンピューターにワイヤレスで送信します。コンピューターは信号を処理し、ユーザーの意図した発言や行動を解釈します。次に、コンピュータは車椅子または音声プロセッサにコマンド信号を送信します。
以下は、Audeo システムの動作例です。「こんにちは、お元気ですか?」と言いたいとします。そして心の中で静かにそう言ってください。脳は口と喉の運動ニューロンに信号を送ります。この信号は、実際に大声で言った場合に送信される信号と同じです。喉に置かれた Audeo レシーバーが信号を記録し、コンピューターに送信します。コンピューターはさまざまな単語や音素 (音声の小さな単位) の信号を知っているため、信号を解釈して文に処理します。音声認識ソフトウェアとほぼ同じように機能します。コンピューターは、一連のスピーカーに電子信号を送信してプロセスを終了します。次に、話者はそのフレーズを「言います」。
車椅子を制御したい場合も、プロセスは似ていますが、コンピューターが話し言葉ではなく制御コマンドとして解釈する特定の音声未満のフレーズを学習する点が異なります。ユーザーが「前に」と考えると、Audeo はその信号を車椅子を前に動かすコマンドとして処理します。
Audeo は、National Instruments CompactRIO コントローラーを使用してセンサーからのデータを収集します。その後、LabVIEW として知られる組み込みソフトウェアが数値を処理し、信号を合成ワードや車椅子制御などの制御機能に変換します。 Ambient は、Audeo のコミュニケーション面を開発し、ユーザーが一度に言葉で話すのではなく、連続した音声を作成できるようになりました 。
NASA の声下音声研究
NASA は、宇宙飛行士が使用できる可能性のあるサブボーカル制御を開発しています。船外活動や国際宇宙ステーションでの宇宙飛行士は、騒音の多い環境で作業しており、コンピューターシステムを制御するために手を自由にできないことがよくあります。背景雑音が原因で音声コマンドの解釈が困難になるため、このような状況では音声認識プログラムはうまく機能しません。 NASA は、サブボーカル信号の使用によりこの問題が回避されることを期待しています。
NASA のシステムは障害者にとっても非常に有益である可能性があるが、携帯電話で静かに話す機能や、大声で話すと混乱が生じる軍事や治安活動での使用など、他の用途も念頭に置いている。
NASA の音声下位システムでは、ユーザーの首に取り付けられた 2 つのセンサーが必要であり、システムは特定のユーザーの音声下位音声パターンを認識するようにトレーニングする必要があります。 6 ~ 10 単語のトレーニングには約 1 時間の作業がかかり、2006 年の時点でシステムは 25 単語と 38 音素に制限されていました 。
初期の実験では、NASA のシステムはソフトウェアを「トレーニング」した後、90 パーセントを超える精度を達成しました。システムは Web ブラウザを制御し、「NASA」という用語を Google 検索しました 。
いつ入手可能になりますか?
思考によって制御される車椅子やその他の装置は、地元の電気店ではまだ見つかりません。 Ambientには潜在的なユーザーが同社に連絡する手段があるが、価格や在庫状況に関する情報は公開されていない(Ambientは情報の要請に応じなかった)。
NASA エイムズ研究センターの神経工学主任研究員であるチャック・ジョルゲンセン博士は、Web サイト「The Future of Things」のインタビューで、サブボーカル制御技術の商用応用は 2 ~ 4 年先になると主張しました 。
思考によって制御される車椅子と声にならないスピーチについて詳しく知りたい場合は、次のページのリンクをチェックしてください。
頭と首の可動性がある程度残っている麻痺患者の場合、車椅子を制御するための他の選択肢があります。そのほとんどは、頭を押したり回したり、肩を動かしたりすることを伴います。ただし、最も重度の麻痺のある人は、これらの制御メカニズムを使用できません。
目や顔の動きを検出するソリューションは、ある程度の制御を提供しますが、欠点がないわけではありません。眼鏡に取り付けられたセンサーは頬の動きを検出できます。これは、コンピュータのマウスをクリックするのと同じように使用できます。コンピュータ画面上のカーソルが正しい機能または文字の上を通過すると、ユーザーは頬を上げます。他のシステムは、より堅牢なコマンドのセットのために目の動きを検出します。たとえば、目を右に動かすと、車椅子に右折するよう合図されます。ただし、これらのシステムは通常の目の動きを「コマンド」の目の動きとして解釈する傾向があるため、訓練されたユーザーが必要です。
スウェーデンの開発者 Tobii Technology は、目が何を見ているかを正確に検出するシステムを開発しています。ユーザーはカーソルが動くのを待つ代わりに、ただコンピューターの画面を見るだけです。さまざまなアイコンを見ることでコミュニケーションが可能になり、ゲームをプレイすることもできます 。