Google發表更強模型迎戰OpenAI 提到AI共121次

Google今天在I/O年度開發者大會發表性能更強人工智慧模型Gemini1.5 Pro、輕量模型Gemini 1.5 Flash,會中提到AI共121次強調其重要性,並試圖於AI市場與OpenAI公司較勁。

搶在Google I/O大會前夕,美國新創公司OpenAI於13日推出更高性能、更高效人工智慧(AI)技術模式GPT-4o,能進行逼真的語音對話,將鞏固旗下生成式工具ChatGPT地位,而且對所有使用者免費。

面對OpenAI來勢洶洶,Google今天於美國加州山景城總部海岸線圓形劇場舉辦I/O開發者大會,以AI爲核心發表新技術與服務,現場活動僅邀請全球部分開發者及媒體參與,中央社記者爲臺灣少數媒體代表之一。

隨着開場音樂響起,Google執行長皮查伊(Sundar Pichai)緩緩走上臺表示,「我們還在AI非常早期的階段」,現在看到這麼多機會,推動這些機會的正是Gemini。目前有超過150萬名開發者,在Google平臺上使用Gemini模型。

皮查伊說,Gemini 1.5 Pro模型從一次可處理100萬個詞元脈絡長度,將擴增到200萬個,是目前爲止可提供最長脈絡處理的基礎模型。現在開發者和GoogleCloud的客戶可加入等候名單,使用200萬個詞元脈絡長度的Gemini 1.5 Pro。

從實際應用來看,Gemini 1.5 Pro可以讀懂1500頁的文件、爲100封電子郵件摘要,或處理長達1小時的影片內容。

爲滿足開發者需要更快速、更具成本效益的AI模型,Google DeepMind執行長哈薩比斯(Demis Hassabis)宣佈推出輕量模型Gemini 1.5 Flash,特別針對大規模、高頻率的任務進行最佳化。

哈薩比斯也公佈Astra計劃的最新進展,讓AI助理即時分析手機拍攝的畫面,提供語音回答,展現AI助理未來的可能性。

現場播放的一段示範影片中,測試人員拿着手機開啓可以即時錄影與收音的App,Gemini會辨識並回答看到的揚聲器功能、分析電腦螢幕上顯示的程式碼用途;甚至測試人員忘記眼鏡放在哪裡時,Gemini也記得正確位置,引起觀衆熱烈掌聲。

在主題演講最後,皮查伊笑說,今天光是AI這個字就被提到121次,也意味着AI已經成爲Google發展技術的核心。

此外,Google也透過專門爲Google搜尋量身打造的全新Gemini模型,能夠將Gemini的先進能力,像是多步驟推理、規劃和多模態等特性,與Google的搜尋系統進一步整合。

有時候用戶只想快速找到答案,但沒有時間看網路上的大量資訊,Google的AI總覽功能就可以派上用場。目前使用者已經透過Search Labs推出的實驗功能來使用AI總覽,次數已經高達數十億次。

Google宣佈從今天開始將率先在美國推出AI總覽,並於日後支援更多國家。從本週起,將有數億使用者可以進一步體驗AI總覽,Google也預計於今年底前讓超過10億的使用者能夠使用這項新功能。