Google Maps 整合 Gemini,上線三大 AI 功能專攻企業 Agent

robot
摘要生成中

在 Google Cloud Next 2026 上,Google 宣布為 Maps 與 Earth 平台注入三項 Gemini AI 功能,宣告地圖不再只是導航工具。
(前情提要:Google 推第八代 TPU:兩款 AI 晶片分攻訓練與推論,挑戰 Nvidia 痛點 )
(背景補充:Google Stitch 開源設計系統:DESIGN.md 讓 Claude Code、Codex、Antigravity 生成高品質 UI )

Google 在拉斯維加斯的 Cloud Next 2026 上宣布,將讓 AI 直接在地圖上生成現實場景、把衛星影像分析從「幾週」壓縮到「幾分鐘」、以及讓辨識橋樑與電力線的 AI 模型向所有企業開放。

這三件事看起來各自獨立,但指向同一個方向:Google 正在把地圖從導航工具,改造為企業 AI 代理的感知底層。

三把鑰匙,一扇新的門

Cloud Next 上宣布的三項功能,各自針對一個過去需要大量人力的地理空間作業場景。

第一項是「地圖影像接地」。企業使用者只需在 Gemini Enterprise Agent Platform 輸入一段文字提示,就能在 Google Street View 的真實場景中生成 AI 視覺化影像。廣告集團 WPP 已在測試這項功能,用來製作沉浸式客戶廣告。目前僅限美國地點,處於私人預覽階段。

簡單來說就是:品牌不需要先飛去紐約,就能在電腦上看見廣告看板放在時代廣場街口會是什麼模樣,而且背景是真實的建築與人行道,不是 3D 渲染的假景。

第二項是「空中與衛星影像洞察」。新功能把 Google Earth 的衛星影像匯入 BigQuery(Google 雲端資料倉儲)進行自動化分析。城市規劃師可以即時監測住宅區的施工進度、保險公司可以追蹤災後建物損毀情況,Google 宣稱這把原本需要「數週」的手工影像判讀,壓縮到幾分鐘內完成。

第三項是兩個「Earth AI 影像模型」,已在 Google Cloud Model Garden 開放實驗性存取。模型被訓練來辨識衛星影像中的特定物件,例如橋樑、道路、電力線。

過去企業要做到同樣的事,需要自行建構與訓練 AI 系統,整個過程動輒耗費數個月。合作夥伴 Vantor 已把這兩個模型整合進自家的災難復原應用 Sentry,在極端天氣後自動標記受損基礎設施。

地圖作為 AI 代理的感知層

這三項功能共享一個技術前提:地理位置資料不只是「在哪裡」的答案,它是讓 AI 代理理解物理世界的感知輸入。

更早之前發布的 Maps Grounding Lite,已透過 MCP 向所有開發者開放,讓任何 LLM 都能接入 Google Maps 的 3 億個地點資料庫。FIFA 世界盃 2026 和波士頓馬拉松已採用這套接地能力,作為現場活動的 AI 數位嚮導後端。旅遊集團 TUI 則用它把靜態行程轉換成即時個人化推薦。

這個邏輯和 Gemini 進入 Maps 消費端的方向一致:Ask Maps 讓使用者以對話方式查詢「附近有沒有不用等的充電座」,分析的是來自 5 億個社群貢獻者的資料;以 Gemini 分析 Street View 與空拍影像,生成帶有真實建築立面的 3D 路徑指引。

從消費端到企業端,邏輯是相同的:Gemini 需要一個地圖作為感知基礎,才能在物理世界裡行動。

地圖的護城河,從來不只是街景拍攝的密度,而是資料積累的深度,以及有多少企業的工作流程,已經把地圖當作不可替換的基礎設施在使用。

此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言