https://www.androidcentral.com/apps-software/ai/google-ai-mode-early-code-live-feature-gemini-spotted
Google搜尋的AI Mode據傳將推出類似Gemini的「Live」即時語音功能。根據新發現的程式碼顯示,這項功能將允許使用者進行即時語音對話以查找資訊,並將高度整合Google Lens,使用者可透過鏡頭指向物體或地點後用語音提問。儘管比現有功能更具對話性,程式碼也暗示可能無法有效處理連續的追蹤問題,每個後續問題可能會被視為新的查詢。文章同時提及AI Mode最近已開放給更多Lab使用者,並新增了視覺卡片、查詢歷史和在地資訊等功能。目前尚無此「Live」功能的具體推出時間。
這項「Live」功能結合語音與Google Lens進行即時搜尋的概念令人興奮。將搜尋從傳統的文字輸入擴展到自然的語音對話,再加上視覺辨識,感覺是搜尋體驗的一大躍進。特別是在尋找現實世界中的物品或地點時,能夠直接用鏡頭對準後開口詢問,無疑會非常直觀方便,讓搜尋更貼近日常的觀察與交流方式。 然而,程式碼中提及無法有效處理追蹤問題,這對一個號稱「即時對話」的功能來說,是個不小的限制。真正的對話往往需要連貫性,如果每個問題都被視為獨立查詢,可能會影響使用者體驗的流暢度,降低其實用性。希望這只是早期開發中的限制,未來正式推出時能有所改善。 總體而言,這顯示了Google正積極將其AI技術(特別是結合Gemini的對話能力和Lens的視覺能力)深度整合到核心的搜尋產品中,試圖打造更智能、多模態的搜尋體驗。儘管追蹤問題的限制令人遺憾,但這項功能的方向是正確的,代表搜尋正朝著更人性化、更強大的AI助手發展。期待它正式推出並看到後續的改進。
沒有留言:
張貼留言