星野誠 makoto hoshino

「Even G2」AIがロボットを動かすのではなく、人間を動かす世界

2026.4.1

Even G2スマートグラスを注文した。

まだ手元には届いていないけれど、そのスペックを眺めているだけで、頭の中にはNetflixのドラマ『ブラックミラー』の不穏なエピソードが再生される。

こっそりイヤホンからAIが指示を飛ばし、相手には見えないレンズ越しに「次に話すべき言葉」が表示される。

「AIを使いこなしている」つもりが、いつの間にか「AIに言われた通りに動く部品」になっている。そんな未来が、すぐそこまで来ているのを感じる。

「自分で考える」という行為は、実はかなりエネルギーを消費する。

世の中には、複雑な意思決定に頭を悩ませるよりも、「明確な手順に従って、正確に作業を遂行すること」に適性を感じる人が一定数いる。

雇う側から見れば、これは合理的だ。

高価で動きの鈍いヒューマノイドロボットを開発するよりも、すでに完成された物理インターフェースである「人間」をAIがナビゲートするほうが、圧倒的にコストパフォーマンスが高い。

自分のお店を例にしていえば、メガネがまったくの素人でも、検眼ができてしまう世界や、素人がメガネの調整をできてしまう世界。

物理世界のタスク(接客、調理、物流、あるいは眼鏡の調整)を人間が担い、その人間に対してAIエージェントが自然言語でリアルタイムに指示を出す。

AI: 「右のネジを0.5ミリ締めてください。お客様の表情が3%和らぎました。次は感謝の言葉を。」
人間: (言われた通りに動く。迷いも、内省もない。)

先日書いたアンドリーセンの「内省ゼロ」という考え方を突き詰めていくと、この「人間ボット」に行き着くのかもしれない。

過去を振り返らず、自己批判もせず、ただAIが提示する「最適解」というレールの上を、最高速度で走り続ける。

それは、ある種の「究極のフロー状態」とも言える。

これを「自由の剥奪」と呼ぶか、「迷いからの解放」と呼ぶか。

それは、その人の感じ方次第だと思う。

ディストピアとして見れば、意志を失い、AIのアルゴリズムに従って肉体を消費される状態。
ユートピアとして見れば、意思決定の負荷から解放され、安定して成果を出し続けられる状態。

少なくとも、その境界線は、思っているよりずっと曖昧だ。

そういえば今日も、千葉を一日中カーナビの指示通りに運転していた。

ある意味、すでに半分「ボット化」しているとも言える。それが仕事や人間関係、さらには人生の設計にまで広がるだけの話なのかもしれない。

Even G2が届いたら、まずは日常の中でどれだけ自然に使えるか試してみたい。

「今日はAIにすべて指示してもらう」という実験をしてみるのも面白そうだ。

トレーニング中に、「あと3回、心拍数を165に保って」と耳元で指示され、レンズには最短ルートが表示される。

そのとき、自分は「自分」として動いているのか。

それとも、AIという脳に動かされる「ハードウェア」として機能しているのか。

昨日のブログで「生物学はコードである」と書いた。

だとしたら、そのコードを動かす「OS」をAIに預けたとき、人間の幸福はどう変わるのか。

スマートグラスという小さなレンズの向こうに、21世紀最大の実験場が広がっている気がする。

ーーーー

ーーーー

“Even G2” — A World Where AI Doesn’t Control Robots, but Humans

I recently ordered a pair of Even G2 smart glasses.

They haven’t arrived yet, but just looking at the specs already brings to mind scenes from the Netflix series Black Mirror.

An AI whispering instructions through an earpiece.
Words appearing on a lens that only I can see, telling me what to say next.

You think you’re “using AI,” but before you notice it, you’re just following instructions—like a component moving exactly as directed.

That kind of future doesn’t feel far away.

Thinking for yourself takes energy. Quite a lot of it.

There are people who are better suited to following clear instructions and executing tasks precisely, rather than constantly making complex decisions.

From an employer’s perspective, that’s efficient.

Instead of building expensive humanoid robots, it may be far more practical to use humans—the already complete physical interface—and let AI guide them.

In my own business, for example, it could mean a world where someone with no experience in eyewear could perform eye exams or adjust glasses, simply by following real-time instructions.

Humans handle physical tasks—customer service, cooking, logistics, or adjusting eyewear—while AI agents provide real-time guidance in natural language.

AI: “Tighten the right screw by 0.5 millimeters. The customer’s expression improved by 3%. Now say thank you.”
Human: (Follows instructions. No hesitation. No reflection.)

If you take the idea of “zero introspection,” like Marc Andreessen suggests, to its extreme, it might lead to this kind of “human bot.”

No looking back. No self-criticism. Just moving forward on the optimal path suggested by AI.

In a way, that could be seen as a kind of “perfect flow state.”

Is that a loss of freedom, or a release from uncertainty?

It probably depends on how you feel about it.

From one angle, it’s a dystopia—humans reduced to bodies executing algorithmic decisions.
From another, it’s a kind of relief—freedom from the burden of constant decision-making, with consistent results.

The boundary between those two views may be much more blurred than we think.

Even today, I spent the whole day driving around Chiba, following GPS instructions without question.

In that sense, we’re already halfway there.

It’s just a matter of how far this extends—into work, relationships, and eventually, life itself.

When the Even G2 arrives, I want to try using it in everyday situations.

Maybe even run a simple experiment: “Let AI guide everything today.”

During training, for example, it might say, “Three more reps. Keep your heart rate at 165,” while the optimal route appears in front of me.

At that moment, am I still acting as myself?

Or am I functioning as hardware, guided by an external intelligence?

Yesterday, I wrote that “biology is code.”

If that’s the case, what happens when we hand over the operating system to AI?

How does that change our sense of well-being?

Through a small lens like a pair of smart glasses, it feels like we’re stepping into one of the biggest experiments of the 21st century.

カテゴリー

– Archives –

– other post –

– Will go to Mars Olympus –

– next journey Olympus on Mars through Space Travel –

– 自己紹介 インタビュー –

RSS *“Yesterday, I Went to Mars ♡”*