你的手機要進化了!Gemma 4 內建手機,沒網路也能用的 AI 時代來臨

先說什麼叫「真的免費」。以往 AI 模型的「開源」其實限制很多,大公司通常會規定你不能拿去商業使用,或者不能隨意修改。但這次 4 月 2 日發布的 Gemma 4 採用了 Apache 2.0 授權,白話文就是:你要改就改、要賣就賣、要做成產品直接賺錢都行,完全沒有條件。連 Hugging Face 的執行長都感嘆,這是一個重大的里程碑。

▋ 這次發布的 Gemma 4 到底是什麼?

Google 這次非常有誠意,一口氣推出了四種尺寸,滿足各種設備的需求:

  • E2B:只有 23 億參數,小到連入門手機甚至是樹莓派(微型電腦)都能跑。
  • E4B:適合平板和筆電,速度比前一代快上 3 倍。
  • 26B MoE:這是一種「混合專家」架構,雖然腦容量大,但思考時只會動用一部分零件,所以既快又省電。
  • 31B Dense:這是旗艦版本,性能強大到在國際 AI 排行榜直接衝上第三名。

不只如此,它還聽得懂 140 種語言,並且具備「多模態」能力,也就是說它不只能讀文字,連圖片和音訊都能直接理解。

▋ 它到底強在哪?對比前代是跳躍式的進步

如果你覺得 AI 只是會聊天,那 Gemma 4 會讓你改觀。跟上一代相比,它的邏輯能力幾乎是翻倍成長:

  • 數學測試:從 20% 的準確率飆升到 89%。
  • 程式碼編寫:從 29% 進步到 80%。
  • 科學推理:準確率直接翻倍來到 84%。

最驚人的是,那個 31B 的旗艦版本,在實測中打贏了很多體型比它大 20 倍的付費閉源模型。

▋ 你的手機以後就是一台 AI 超級電腦

很多人擔心 AI 很耗電或跑不動,但 Google 這次是認真的。輕量版的 E2B 和 E4B 專為行動裝置設計,比上一代快 4 倍,卻省電 60%。

Google 已經跟高通(Qualcomm)和聯發科(MediaTek)合作優化,預計今年底的新手機就會直接內建這個模型。這意味著:以後你的手機裡會住著一個不需要網路、反應極快,而且完全不會把你的私密資料傳回雲端的 AI 助理。

▋ 這對我們有什麼實際好處?

對一般人來說,最直接的感受就是:

  • 出國沒網路也能離線翻譯 140 種語言。
  • 語音轉文字在手機本地就能完成,隱私百分之百保留。
  • 手機相簿的搜尋會變得極度聰明,它能真正「看懂」你的照片。

對開發者和企業來說,這更是一大福音。醫療、法律或金融這些重視隱私的產業,不再需要擔心資料外洩給第三方 AI 公司,可以直接在自家伺服器跑 Gemma 4,連昂貴的 API 訂閱費都省下來了。

▋ 為什麼 Google 要這麼大方?

這不只是在做慈善,而是一個聰明的生態系策略。當全世界的開發者都習慣用 Google 的開源模型來寫程式、做產品時,Google 就成了 AI 界的標準。雖然模型免費,但當你需要大規模運算時,Google Cloud 雲端平台就是最方便的選擇。

這就像是「送你免費的燈泡,但希望你用我的電」,這正是 Google 建立的 AI 護城河。

如果你的手機不需要連網就能擁有這麼強的 AI,你最希望它幫你處理什麼生活瑣事?


想在自己筆電上跑 AI,但不想學寫程式、不想看黑色指令視窗的科技小白一般用戶,怎麼在電腦裡安裝 gemma 4?

我們將使用目前最簡單、介面最友善的軟體 —— LM Studio。它就像是 AI 界的 App Store,讓你點幾下滑鼠,就能把 Gemma 4 下載到筆電裡,即使沒網路也能聊天。以下是使用教學:


▋ 第一步:準備好你的工具(檢查筆電)

在開始之前,請先確認你的筆電這兩點,跑起來才不會卡頓:

  1. 記憶體 (RAM): 建議至少 16GB(8GB 勉強能跑最輕量版,但會很慢)。
  2. 硬碟空間: 至少預留 10GB 以上的空間。

▋ 第二步:下載並安裝 LM Studio

這就像安裝一般電腦軟體一樣簡單:

  1. 前往官網: 打開瀏覽器,搜尋「LM Studio」,或直接進入 lmstudio.ai
  2. 下載軟體: 首頁會大大的寫著「Download LM Studio for Windows」(如果你是用 Mac 或 Linux,它會自動偵測)。點擊下載。
  3. 執行安裝: 下載完成後,雙擊安裝檔(.exe),按照螢幕指示完成安裝。安裝完成後,LM Studio 會自動打開。

▋ 第三步:在軟體內搜尋並下載 Gemma 4

LM Studio 最棒的地方,就是可以直接在軟體裡面找模型,不需要去別的網站下載。

  1. 點擊放大鏡: 在 LM Studio 左側選單中,點擊最上面的 放大鏡圖示 (Search)
  2. 輸入關鍵字: 在上方的搜尋框中輸入 Gemma 4,然後按下 Enter。
  3. 選擇模型: 搜尋結果會出現很多版本。請認明由 Google 官方發布,或者是知名社群成員(如 Bartowski)製作的 GGUF 格式版本。
  4. 選擇檔案大小 (Quantization): 在右側會看到很多「Download」按鈕,它們代表不同的「壓縮程度」。
    • 小白建議: 如果你的筆電是一般性能,請選擇檔案大小約 4GB 到 8GB 之間的版本(通常檔名會有 Q4_K_M 或 Q5_K_M 字樣),這是在精準度和速度之間最好的平衡。
  5. 點擊下載: 決定好版本後,點擊「Download」。LM Studio 就會開始把 Gemma 4 下載到你的電腦裡。

▋ 第四步:開始跟離線 AI 聊天

下載完成後,你就擁有一個完全屬於你、不用連網的 AI 了!

  1. 進入聊天介面: 點擊左側選單的 對話氣泡圖示 (AI Chat)
  2. 載入模型: 在上方中間的下拉選單中,選擇你剛剛下載的 Gemma 4 模型。電腦需要幾秒鐘的時間把模型「讀取」進記憶體。
  3. 設定系統提示詞(選填): 在右側邊欄,你可以設定 AI 的「個性」。例如,你可以輸入「你是一個專業的繁體中文助手」,它回答的風格就會更符合你的需求。
  4. 開始打字: 在下方的輸入框中,輸入你想問的問題,例如:「幫我寫一封感謝客戶的繁體中文 Email」,然後按下 Enter。

恭喜你!你已經成功在自己的筆電上跑起了 Google 最新、最強的開源 AI —— Gemma 4。即使現在把 Wi-Fi 關掉,它依然可以回答你的問題。


喜歡動手實作、對指令介面(CLI)不陌生、追求極致效能與開發彈性的「工程師」或「進階用戶」。下是針對專業用戶的 Ollama 安裝與 Gemma 4 部署教學:

我們將使用目前在 Linux/macOS(Windows 也即將推出穩定版)社群中極受歡迎的開源專案 —— Ollama。它讓你在本地端部署大語言模型(LLM)變得像使用 Docker 一樣簡單、快速且標準化。

▋ 第一步:環境準備與硬體建議

在開始之前,請確保你的開發環境滿足以下條件,以獲得最佳效能:

  1. 作業系統 (OS):
    • macOS: 建議使用 Apple Silicon (M1/M2/M3) 晶片,並更新至較新版本。
    • Linux: 建議使用 Ubuntu 22.04+ 或其他主流發行版,並確認 GPU 驅動已正確安裝。
    • Windows : 目前已有預覽版,但穩定性與效能可能稍遜,建議優先使用 WSL2 或原生 Linux。
  2. 記憶體 (RAM): 建議 32GB 或以上。若需載入旗艦版 31B 模型,建議至少 64GB
  3. GPU (非必須,但強烈建議):
    • NVIDIA GPU: 需支援 CUDA,且顯示記憶體 (VRAM) 建議 16GB 以上(對應 Q4 量化模型)。
    • Apple Silicon: 由於採用統一記憶體架構,硬體會自動分配系統記憶體作為 VRAM。
  4. 硬碟空間: 預留至少 50GB 供模型檔案使用。

▋ 第二步:安裝 Ollama

Ollama 的安裝過程非常精簡,只需一行指令(Linux/macOS):

在終端機 (Terminal) 執行安裝指令:

curl -fsSL https://ollama.com/install.sh | sh 

這行指令會自動偵測你的作業系統、下載對應的二進位檔案、將其移動到 /usr/local/bin(或其他合適路徑),並將 ollama 註冊為系統服務(Systemd service,Linux環境下)。

驗證安裝: 安裝完成後,輸入以下指令確認 Ollama 伺服器已正常運作:

ollama --version

如果成功顯示版本號,代表 Ollama 已經就緒。


▋ 第三步:一鍵部署 Gemma 4

Ollama 的核心優勢在於其「模型倉庫」機制。你不需要手動下載 GGUF 檔案,只需指定模型名稱,Ollama 就會自動完成下載、量化(如果需要)與載入。

在終端機執行 run 指令:

ollama run gemma4

注意: 如果你想要指定特定的尺寸(例如 旗舰版 31B),可以使用 tag:

ollama run gemma4:31b

背後發生的事: Ollama 會先檢查本地端是否有 gemma4 模型。如果沒有,它會自動前往 Ollama Registry 下載對應的檔案。下載完成後,它會自動將模型載入記憶體(或 GPU),並直接在終端機中開啟一個互動式的聊天介面。


▋ 第四步:整合應用與進階開發

作為專業用戶,你可能不只是想在終端機跟 AI 聊天,而是想將其整合進你的工作流或 App 中。

1. 使用 REST API 進行整合

Ollama 預設會在本地端開啟 port 11434 提供 REST API 服務。

產生回應 (Generation):

curl http://localhost:11434/api/generate -d '{
"model": "gemma4",
"prompt": "為什麼開源對 AI 發展很重要?",
"stream": false
}'

產生對話 (Chat):

curl http://localhost:11434/api/chat -d '{
"model": "gemma4",
"messages": [
{ "role": "user", "content": "你好,介紹一下 Gemma 4 的 Apache 2.0 授權。" }
],
"stream": false
}'

2. 整合知名開源 UI 專案

如果你喜歡 LM Studio 那樣的網頁圖形介面,但想使用 Ollama 作為後端,可以配合以下開源專案:

Open WebUI (前身為 Ollama WebUI): 功能極其強大,介面與 ChatGPT 非常相似,支援多模型管理、RAG、使用者權限等。通常建議使用 Docker 部署。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

部署後打開瀏覽器訪問 http://localhost:3000 即可。

恭喜你!你已經成功使用 Ollama 在本地端部署了 Google 最新、最強的開源 AI —— Gemma 4。無論是直接在終端機互動、通過 REST API 整合進你的專案,或是配合強大的 Web UI,Ollama 都為專業用戶提供了無與倫比的靈活性與效能。

#Google #Gemma4 #人工智慧 #開源模型 #Gemini #科技趨勢 #AI手機

Facebook網友回應

您可能也會感興趣的文章...

李善均(이선균,1975年3月2日—2023年12月27日)

生活小事

李善均是一個我很喜歡的演員。除了電影《寄生上流》值得稱讚,韓劇《我的大叔》當中的表現更有優異表現。 是誰殺了李善均? 李善均向結婚14年的妻子致歉,「束手無策」、「沒辦法 […]

Read More

台灣之星的NT$99輕速吃到飽

生活小事

2018/04/25 中午在台灣之星的網頁上申辦了一張 4G 的SIM 卡,刷卡付了 $800元(預付$600元, 運費$200元),這運費也太誇張的貴,當作是開辦費好了 […]

Read More

你在春風裡

生活小事

Max在發表了2024-04-18 的聲明文之後,收到很多很多的關心,非常感謝大家的雪中送炭,點點滴滴在心頭,由衷感謝🙏。 面對不確定的未知無助的像孩子的Max會在大家面 […]

Read More

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *