星野誠 makoto hoshino

脳波だけで自分の考えを読み取って文字に変換する。「Brain2Qwerty(ブレイン・トゥ・クワーティ)」というAIモデル

2025.2.16

最近、脳波だけで自分の考えを読み取って文字に変換する。そんな研究がMeta(旧Facebook)とスペインの脳と言語の研究所BCBLの共同プロジェクトで進んでいるらしい。聞いただけでもワクワクするし、近未来感がすごい。自分の頭の中のイメージをそのまま文字にできるなら、話すのが難しい人や、もっとスピーディーに意思疎通をしたい人にとっては大きな変化をもたらす可能性がある。

具体的には、脳の電気的信号を計測するEEG(脳波計)や、脳の磁場を捉えるMEG(脳磁図)といった非侵襲的(手術不要)な装置を使って、35人のボランティアがタイプしている最中の脳波を集めたんだとか。そして、それを深層学習で学習させたのが「Brain2Qwerty(ブレイン・トゥ・クワーティ)」というAIモデル。これが、入力される文字と脳波のパターンを対応づけて覚え、最終的には脳波データだけから文字列を予測できるようになる――なんて、一昔前じゃSFの世界の話だったよね。

実際の精度もなかなかで、最大で約80%の文字を正しく再現できたそう。とくにMEGを使った場合はEEGの2倍以上も正確に文字を読み取れたっていうから驚き。まだ「どこでも手軽に使える」レベルの装置じゃないにしろ、「非侵襲的な手段でここまでできるんだ!」ってわかっただけでも大きな前進だ。

なにより面白いのは、脳の中で「考え」が「言葉」に変換される、その瞬間に迫れたこと。脳が抽象的なアイデアを具体的な動きや文字に落とし込むプロセスの一端が観察できたのは、人間の言語能力を解明するうえでもかなりのブレイクスルー。AIに応用すれば、人間みたいに言語を自在に操れる超賢いモデルが生まれるかもしれないし、今後の発展が楽しみだ。

もちろん、まだ課題はあるという。たとえば、「装置が大きい」「磁気を遮断した部屋で動かずに座る必要がある」「20〜30%は文字を誤認識してしまう」など、実際に日常で使おうとするとネックが多い。ただ、「まずは脳波を読み取る環境を整えよう」「そして精度を上げていこう」という方向性が見えたのは大きい。技術が進めば、ヘッドセットをかぶるだけで頭の中の言葉を相手に伝えられる、なんてことも本当に現実味を帯びてくる。

この研究が進めば、声が出せない人や上手く言葉にできない人でも、脳から直接文字を入力してコミュニケーションできる可能性がある。さらに、ブレイン・コンピュータ・インタフェース(BCI)という観点で見れば、脳波でロボットを遠隔操作したり、PCを思考でコントロールしたりする未来も夢物語じゃなくなるかもしれない。

こういう“脳とAIの融合”が当たり前になってくると、ただ便利になるだけじゃなくて、人間のクリエイティビティや想像力に新しい可能性が広がるのが魅力的。AIが人間の思考プロセスそのものを凌駕する時代が来るのは間違いない。いつの日か「考えるだけで意思疎通ができる」って世界が本当に訪れたら、どんな体験が待っているんだろう?そう思うと、想像するだけでワクワクしてくる。

ーーーー

ーーーー

“Brain2Qwerty” — An AI Model That Converts Brainwaves into Text

It seems that Meta (formerly Facebook) and Spain’s BCBL (Basque Center on Cognition, Brain and Language) are working on a joint project to decode human thoughts purely through brainwaves and convert them into text. The mere idea sounds thrilling and extraordinarily futuristic. If we could directly convert the images in our minds into words, it could dramatically change life for people who have difficulty speaking or for anyone wanting faster, more efficient communication.

Here’s how it works in more detail: they used noninvasive devices like EEG (which measures electrical signals in the brain) and MEG (which captures magnetic fields in the brain) on 35 volunteers while they typed on a keyboard. The collected data was then fed into a deep learning model known as “Brain2Qwerty.” The model learned to correlate incoming brainwave patterns with the letters being typed, ultimately becoming capable of predicting text using only brainwave data. Not so long ago, this would have sounded like pure sci-fi.

What’s even more impressive is its accuracy: in some cases, it correctly reproduced up to about 80% of the letters. MEG data in particular was more than twice as accurate as EEG. While we’re not at the point where such equipment is portable enough for everyday use, the fact that noninvasive methods can achieve this level of performance is a huge breakthrough.

The most fascinating aspect might be how this gets us closer to that moment in the brain where “thinking” transforms into “words.” Witnessing the brain’s process of turning abstract ideas into concrete motor actions or text offers a potential leap in understanding human linguistic capabilities. Applying this approach in AI could yield super-smart language models that manipulate words as flexibly as humans. It’s exciting to consider what might come next.

Of course, there are still major hurdles. For instance, the equipment is bulky, requiring you to sit still in a magnetically shielded room. There’s also a 20–30% error rate in letter recognition. But the basic direction is clear: set up the necessary environment to read brain signals, then gradually improve accuracy. With further advances in technology, wearing just a headset might be enough to transmit words directly from your mind someday.

If this research progresses, even people who can’t speak or struggle to find words could directly input text through their brains and communicate effectively. From a brain-computer interface (BCI) standpoint, it could open the door to controlling robots remotely via brainwaves or operating a computer purely by thought. That no longer seems like science fiction.

As this “fusion of brain and AI” becomes more commonplace, it’s not just about convenience—there’s a new horizon for human creativity and imagination. We can all be certain the day will come when AI surpasses human thought processes. If a world arrives where we can communicate simply by thinking, what kinds of experiences will we have? Just imagining that future is enough to get me excited.

カテゴリー

– Archives –

– other post –

– Will go to Mars Olympus –

– next journey Olympus on Mars through Space Travel –

– 自己紹介 インタビュー –

RSS *“Yesterday, I Went to Mars ♡”*