MENU

脳の中の“心の声”をAIが解読!内言語研究が示す未来のコミュニケーション

こんにちは、Dayです!
このブログでは、最新の脳科学論文を一般の方にも楽しめるようにわかりやすくまとめています。

本日のテーマは、「心の中の声を脳科学が読み取る未来」についてです。

声に出さなくても、頭の中で考えた言葉をそのまま相手に伝えられるとしたら——。
映画やSFで描かれてきたテレパシー的な会話が、科学の力で現実に近づいています。

最新の研究では、人が心の中でつぶやいた言葉を脳から直接読み取ることに成功しました。
これは、声を失った人の新しいコミュニケーション手段になるだけでなく、言葉の正体に迫る大発見でもあります。

本記事は、以下の研究をもとにしました
Kunz, E. M., Krasa, B. A., Kamdar, F., Avansino, D. T., Hahn, N., Yoon, S., … Willett, F. R. (2025). Inner speech in motor cortex and implications for speech neuroprostheses. Cell, 188(17), 4658–4673.e17. https://doi.org/10.1016/j.cell.2025.06.015

目次

内言語とは?脳の中の“心の声”を解読する新しい脳科学

私たちは日常生活の中で、声に出さずに頭の中で考えることがあります。

  • スーパーで「卵と牛乳を買わなきゃ」と心の中でつぶやくとき
  • 曲を聴いていないのに頭の中でメロディが流れるとき
  • 誰かに話す前に返事を頭の中で準備するとき

これらはすべて 「内言語(inner speech)」 と呼ばれるものです。

これまで内言語は、心理学や哲学では「思考の一部」として注目されてきましたが、実際に脳のどこで、どのように表現されているのかはよく分かっていませんでした。

今回の研究が新しいのは、内言語を運動皮質(発話に関わる脳の領域)から直接記録し、AIを使って解読することに挑戦した点です。
つまり、「心の中の声」を“ただの感覚”としてではなく、科学的に測定して翻訳する試みが本格的に始まったのです。

この成果は、単に「人の心を読む」ようなSF的おもしろさだけでなく、声を失った患者さんにとって考えるだけで会話できる未来を意味しています。

従来のBCI(ブレイン・コンピュータ・インターフェース)の限界と課題

脳の信号を使ってパソコンや機械を操作する技術は、BCI(Brain-Computer Interface:ブレイン・コンピュータ・インターフェース)と呼ばれています。

すでに研究レベルでは、手を動かせない人が「動かすつもり」でロボットアームを操作するといった成果が報告されてきました。

言葉に関しても、近年はBCIを使って「発話の試み(口を動かすつもりで動かせない状態)」を脳から読み取り、テキストに変換する研究が進んでいます。
つまり、声は出せなくても“しゃべろうとする動き”を脳活動から拾うことで、会話を実現していたのです。

しかし、この方法にはいくつかの課題がありました。

  • 体の動きを想定する必要がある
    「発話を試みる」こと自体が、患者さんにとっては負担になる場合がある。
  • 自然な会話とは少し違う
    人は実際に話すとき、必ずしも口を動かすつもりで思考しているわけではなく、まず“心の中で言葉を考える”プロセスがある。
  • プライバシーや誤検出のリスク
    “しゃべろうとするつもり”と“ただ頭の中で考えているだけ”の区別が難しいため、意図しない解読がされる可能性がある。

このように、従来のBCIは「動きに基づく発話の試み」には対応できても、“心の中の声そのもの”を直接読むことはできなかったのです。

今回の研究は、この限界を突破して「考えるだけで会話できる」方向に大きく一歩踏み出したという点で画期的です。

脳内の内言語をどのように記録・解読したのか

今回の研究では、声を失った患者さんに微小電極を埋め込み、発話に関わる脳の領域(運動皮質)から神経活動を記録しました。

この運動皮質は本来、口や舌、声帯を動かすための指令を出す場所ですが、実際に声を出さなくても“心の中で言葉を考える”ときにも活動していることが分かっています。

実験の手順

  • 参加者は「声に出さずに心の中で言葉を思い浮かべる」タスクを行いました。
  • 同じ単語を「声に出そうと試みる場合」と「心の中で考える場合」で比べ、神経活動の違いを分析しました。
  • 記録された膨大な神経データをAI(再帰型ニューラルネットワーク:RNN)に学習させ、特定の単語や文章を解読できるようにしました。

どんな結果が得られたのか?

  • 「声に出すつもり」のときと「心の中で考えるだけ」のときで、神経活動は似ているが強度が異なることが判明。
  • この共通性を利用することで、心の中で考えた言葉をリアルタイムに解読することに成功しました。
  • さらに実験では、12万語以上の語彙から74%の精度で文章を再現できたケースもありました。

つまり、今回の研究は「声に出さなくても、脳の中にちゃんと言葉の痕跡がある」ことを示し、それをAIで翻訳する道を切り開いたのです。

考えるだけで会話できる?内言語解読の成果と可能性

今回の研究では、これまで難しいとされてきた「心の中の声=内言語」を、AIを使ってリアルタイムに解読することに成功しました。
ここでは、その主な成果をまとめます。

【成果①】内言語が脳内で明確に表現されていることを確認

  • 運動皮質の活動から、「声に出すつもり」と「心の中で考えるだけ」の両方で共通するパターンが見つかりました。
  • 内言語は実在し、脳内で「言葉の痕跡」として捉えられることが科学的に証明されました。

【成果②】AIによる高精度なデコード

  • 再帰型ニューラルネットワーク(RNN)を用いた解析により、最大で74%の精度で内言語を文章化。
  • 単語単位だけでなく、自由な文章の解読にも成功しました。

【成果③】内言語と発話の試みの違いを切り分け

  • 両者は似ているが、「実際に動かそうとする意図(motor-intent)」の有無で区別可能。
  • これにより、「うっかり頭の中で考えたことまで勝手に解読される」リスクを防げる道が開かれました。

【成果④】プライバシーを守る工夫

  • 特定の「合言葉」を頭の中で思い浮かべたときだけBCIが起動する仕組みを試験。
  • 実験では約99%の精度でオン・オフを切り替えることに成功し、プライバシー確保の可能性を示しました。
まとめ

この研究は、内言語が単なる「感覚」ではなく、脳に実際のパターンとして存在していることを明らかにした初めての成果です。
さらに、AIによる解読技術とプライバシー保護の仕組みを同時に提案した点で、科学的にも社会的にも大きな一歩となりました。

考えるだけで会話できる未来と、その意義と課題

今回の研究は、声を失った人にとって新しいコミュニケーション手段となる可能性を示しました。ALSなどで話すことが難しい患者さんが、頭の中で思い浮かべるだけで意思を伝えられるようになれば、生活の質を大きく改善できます。

さらに、この技術は将来、声を出さずに会話できる社会につながるかもしれません。
静かなテレパシーのようなコミュニケーションや、自動翻訳との組み合わせによる言語の壁を越えた対話など、SFのような未来が現実味を帯びてきています。

一方で、「心の中を勝手に読まれるのでは?」という懸念も生まれます。
研究チームは、合言葉を思い浮かべたときだけシステムが作動する仕組みなど、プライバシーを守る方法も提示しています。

今後は技術の進歩と同時に、倫理や社会的ルールづくりが不可欠となるでしょう。

まとめ|脳が語る“心の声”を解読する未来へ

今回紹介した研究は、脳の中の内言語(心の声)をAIで解読することに成功した、画期的な成果でした。
これは、声を失った人に新しいコミュニケーション手段をもたらすだけでなく、将来的には「考えるだけで会話できる社会」を実現する可能性を示しています。

一方で、思考のプライバシーや倫理的な課題も無視できません。技術が進歩するほど、どこまで解読してよいのか、どう管理するのかを社会全体で考える必要があります。

脳科学とAIが切り開く未来は、私たちに大きな希望を与えると同時に、新しい責任をも問いかけています。
「声なき声」を科学がどのように届けていくのか——この分野の進展から今後も目が離せません。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

脳科学・神経科学を専門とする大学研究者。日々の研究活動で触れる最新の知見を、医療従事者や研究者だけでなく一般の方にも伝わりやすい形で紹介しています。このブログでは、PubMedなどから注目の論文をピックアップし、日本語で要約・解説します。

コメント

コメントする

目次