星野誠 makoto hoshino

「Gemma 4」スマホの中に「オフラインAI」

2026.4.16

Googleが、スマホでも動作する軽量AIモデル「Gemma 4」を公開した。
Geminiみたいなクローズドなクラウドモデルと違って、Gemma 4はオープンモデル+Apache 2.0ライセンス。
しかも、エッジデバイス上でオフライン動作が前提になっている。

実際にスマホに入れてみた感想は、一言でいうと「え、もうここまで来たの?」という驚きだった。

  • iPhoneクラスの端末でも、同規模のオープンモデルと比べて明らかにレスポンスが速い
  • ちょっとしたコード生成や文章要約くらいなら、通信なしでサクサク動く
  • これがApache 2.0で、商用利用や組み込みも自由というのが、本当にすごい。

「つまりオフラインでもスマホでAIが使える」と書いてしまうと簡単すぎるけれど、冷静に考えるとかなり世界観が変わる。

Gemma 4で一番インパクトがあるのは、GoogleがここまでのモデルをApache 2.0で出してきたという点だと思う。

  • OpenAIやAnthropicは、「AIそのもの」で収益を上げないといけない
  • 一方Googleは、広告事業などで既に巨大な収益源を持っている

だからGoogleにとっては、「AIモデルなんて、ビジネスの全体から見れば“無料で配れるパーツ”のひとつ」という感覚にかなり近いのだろう。

実際、Gemma 4は

  • 商用利用OK
  • 改変・再配布もOK
  • スマホ・PC・組み込み(Raspberry Piクラス)まで対応

という、「どうぞご自由に使ってください」仕様になっている。
Googleが本気を出すと、ここまでやれてしまう。
正直、「やっぱりこの会社、かなりヤバいところまで行ってるな」という印象を持った。

今は、みんなクローズドなクラウドモデル(Gemini、GPT系など)を使ってバイブコーディングしたり、文章を書いたりしている。
でもGemma 4クラスがスマホやPCのローカルで普通に動き出すと、

  • 「軽めの作業はローカルAI」
  • 「重い推論や巨大コンテキストはクラウドAI」

という役割分担が当たり前になっていくと思う。

簡単なアプリや自動化ツールくらいなら、
クラウドに一切投げずに、Gemma 4だけで完結できる世界が現実味を帯びてきた。

  • 個人開発者が、通信なしで動くAIアプリをサクッと作れる
  • 企業が、社内ネットワークだけで完結するAIシステムを構築できる
  • 店頭のタブレットや組み込み機器に、AIエージェントをそのまま乗せられる

「AI=インターネット経由でどこかの巨大モデルにアクセスするもの」という前提が、ここから数年でだいぶ崩れていきそうだ。

正直、キャッチアップはしんどい。
数カ月ごとに新しいモデルやフレームワークが出てきて、「また(新しいの)かよ…」と感じる瞬間もある。

それでも今回のGemma 4は、「さすがにこれは乗り遅れたくない」と思わせる一線を越えてきた。

  • ローカルで動く
  • オープンで使える
  • 商用も含めて、好きなように組み込める

AIが「サービス」ではなく、「ライブラリやミドルウェア」に近い感覚で扱えるようになる。
その変化は、エンジニアだけじゃなく、小さなビジネスや個人にも直接効いてくるはずだ。

まだまだチャンスはある。
だから自分も、なんとか食らいついていきたいし、これを読んでいる人にも全力でAIに張ることを勧めたい。
それくらい、Gemma 4の登場は大きなインパクトのある出来事だと感じた。

ーーーー

ーーーー

“Gemma 4” — Offline AI Inside Your Smartphone

Google has released a lightweight AI model called Gemma 4 that can run directly on smartphones.

Unlike closed, cloud-based models like Gemini, Gemma 4 is an open model under the Apache 2.0 license.
It is designed to run on edge devices—and importantly, to work offline.

After actually installing and testing it on my phone, my honest reaction was simple:
“Wait… we’re already here?”

Even on an iPhone-class device, the response speed is noticeably faster than other open models of a similar size.
Tasks like simple code generation or text summarization run smoothly without any network connection.

Saying “you can use AI offline on your smartphone” sounds simple,
but when you think about it, it represents a major shift.

What stands out most about Gemma 4 is not just the performance, but the fact that Google released it under Apache 2.0.

Companies like OpenAI and Anthropic need to monetize AI itself.
Google, on the other hand, already generates massive revenue from its core businesses, such as advertising.

Which likely allows them to treat AI models as something closer to
“a component we can afford to give away.”

In practice, Gemma 4 is:

Available for commercial use
Free to modify and redistribute
Compatible with smartphones, PCs, and even embedded systems like Raspberry Pi

It’s essentially a “use it however you like” model.

When Google decides to move seriously in this direction,
it changes the landscape quickly.

That was my impression.

Right now, most people rely on closed, cloud-based models—Gemini, GPT, and others—for coding and writing.

But if models like Gemma 4 start running smoothly on local devices,
we may begin to see a clear shift:

Lightweight tasks handled locally
Heavier reasoning and large-context tasks handled in the cloud

For many use cases, simple apps or automation tools could be built entirely on local AI, without relying on the cloud at all.

Individual developers could quickly create AI-powered apps that work offline.
Companies could build AI systems that operate entirely within internal networks.
AI agents could be embedded directly into in-store devices or hardware.

The assumption that “AI means accessing a large model over the internet” may start to fade over the next few years.

To be honest, keeping up is not easy.

New models and frameworks appear every few months,
and sometimes it feels like, “another one already?”

But Gemma 4 feels like it crosses a certain line.

It runs locally.
It’s open.
It can be freely integrated into real products.

AI starts to feel less like a service,
and more like a library or middleware.

That shift will not only affect engineers,
but also small businesses and individuals directly.

There is still a lot of opportunity here.

I want to keep up as best as I can.
And I would encourage anyone reading this to seriously engage with AI.

That’s how significant the release of Gemma 4 feels to me.

カテゴリー

– Archives –

– other post –

– Will go to Mars Olympus –

– next journey Olympus on Mars through Space Travel –

– 自己紹介 インタビュー –

RSS *“Yesterday, I Went to Mars ♡”*