Google周三(6/18)宣布,已開始藉由搜尋實驗室(Search Labs)中的AI模式,測試具備語音輸入功能的Search Live,它允許Android及iOS平臺上的Google程式在搜尋時,能夠利用語音與系統連續對話,它會秀出逐字稿(Transcript),也會列出參考連結,亦可於背景使用。不過,目前僅開放美國市場參與測試。
隨著大型語言模型的能力愈來愈強,科技業者正著手改善人們與AI模型之間的體驗,例如Google DeepMind的Astra專案(Project Astra)目標是建置一個可覆蓋所有Google產品的AI助理,目前正在開發自然語音的連續互動功能,或是使用各種工具替使用者完成任務,或是提供個人化答案等,並將它們應用在Gemini Live、Google搜尋或眼鏡等新裝置上。
Google搜尋團隊解釋,AI模式中的Search Live採用一個具備先進語音能力的客製化Gemini模型,該模型是建立在擁有最佳品質及資訊的搜尋系統上,因此不管使用者從哪裡、用什麼方式發問,系統都能提供可靠且有幫助的回答。
此外,Search Live的語音搜尋功能還採用了查詢扇出(query fan-out)技術,將一個查詢同時傳送到多個系統、模型或資料源,整合之後再予以回應,以呈現更多元的結果。
於是Google程式用戶在搜尋中啟用Search Live時,得以用語音詢問問題,系統也會以語音回應,而且雙方可以不間斷地回應與互動,使用者也可查看對話的逐字稿,或是系統所提供的參考連結,也能進入AI模式的歷史紀錄查詢先前的對話內容。
由於Search Live可於背景執行,因此就算螢幕鎖住了仍能繼續對話,也能在對話時使用其它程式。
目前Google除了開放Gemini聊天機器人之外,在去年10月於全球搜尋服務中部署的AI Overviews也已替使用者彙整並摘錄了重要資訊。