·谷歌宣布推出其規模最大、功能最強大的新大型語言模型Gemini,其最強大的TPU“Cloud TPU v5p”以及來自谷歌云的人工智能超級計算機。 ·“谷歌運行了32個完善的基準測試來比較Gemini和GPT-4,從廣泛的整體測試(如多任務語言理解基準測試)到比較兩個模型生成Python代碼的能力。”谷歌DeepMind首席執行官德米斯·哈薩比斯表示,“我認為我們在32項基準中的30項中大幅領先。” 當地時間12月6日,谷歌公司宣布推出其規模最大、功能最強大的新大型語言模型Gemini,其最強大的TPU(張量處理單元)系統“Cloud TPU v5p”以及來自谷歌云的人工智能超級計算機。v5p是今年早些時候全面推出的Cloud TPU v5e的更新版本,谷歌承諾其速度明顯快于v4 TPU。 一年前,在人工智能開發機構OpenAI發布聊天機器人ChatGPT后,創造了當前人工智能熱潮背后大部分基礎技術的谷歌措手不及,一度發布了內部“紅色警報”(red code)。一年零一周后,谷歌似乎準備好了反擊。 谷歌DeepMind首席執行官、Gemini團隊代表德米斯·哈薩比斯(Demis Hassabis)在發布會上正面談及GPT-4與Gemini的對比,“我們對系統進行了非常徹底的分析,并進行了基準測試。谷歌運行了32個完善的基準測試來比較這兩個模型,從廣泛的整體測試(如多任務語言理解基準測試)到比較兩個模型生成Python代碼的能力。”哈薩比斯略帶微笑地表示,“我認為我們在32項基準中的30項中大幅領先。” 從發布日起,Gemini可開始應用于Bard和Pixel 8 Pro智能手機,并將很快與谷歌服務中的其他產品集成,包括Chrome、搜索和廣告等。 “Gemini Pro性能優于GPT-3.5” 大型語言模型Gemini包括一套三種不同規模的模型:Gemini Ultra是最大、功能最強大的類別,被定位為GPT-4的競爭對手;Gemini Pro是一款中端型號,能夠擊敗GPT-3.5,可擴展多種任務;Gemini Nano用于特定任務和移動設備。 ![]() Gemini包括一套三種不同規模的模型。 目前,谷歌計劃通過谷歌云將Gemini授權給客戶,供他們在自己的應用程序中使用。12月13日開始,開發者和企業客戶可以通過谷歌AI Studio或谷歌Cloud Vertex AI中的Gemini API(應用程序編程接口)訪問Gemini Pro,安卓開發人員可以使用Gemini Nano完成構建。 從發布會當天開始,谷歌聊天機器人Bard將使用Gemini Pro來實現高級推理、規劃、理解和其他功能。明年初,谷歌將推出Bard Advanced,其將使用Gemini Ultra,這代表了Bard發布以來的最大更新。 從發布會當天開始,Pixel 8 Pro手機的兩項功能將由Gemini Nano提供支持:錄音機應用中的自動摘要功能以及Gboard鍵盤的智能回復部分。由于模型在手機中運行,因此兩者都可以離線工作,因此應該能擁有快速且原生的體驗。谷歌表示,Nano的目標是創建一個盡可能強大的Gemini版本,但同時不會占用手機的存儲空間或使處理器過熱。 據介紹,Gemini Ultra是第一個在MMLU(大規模多任務語言理解)方面超越人類專家的模型,該模型綜合使用數學、物理、歷史、法律、醫學和倫理學等57個科目來測試世界知識和解決問題的能力,谷歌在一篇博客文章中表示,它可以理解復雜主題中的細微差別和推理。 據哈薩比斯介紹,在對比Gemini和GPT-4的基準測試中,Gemini最明顯的優勢來自于它理解視頻和音頻并與之交互的能力。這很大程度上是設計使然:多模態在最開始就是Gemini計劃的一部分。谷歌沒有像OpenAI構建DALL·E(文生圖模型)和Whisper(語音識別模型)那樣單獨訓練圖像和語音模型,而是從一開始就建立為一個多感官模型。 而據CNBC報道,谷歌高管們在新聞發布會上表示Gemini Pro的表現優于GPT-3.5,但回避了與GPT-4相比如何的問題。對于谷歌是否計劃對Bard Advanced的訪問收費,Bard總經理蕭茜茜(Sissie Hsiao)表示,谷歌專注于創造良好的體驗,目前還沒有任何相關盈利的細節。 “我們一直對非常通用的系統感興趣。”哈薩比斯說,他對如何混合所有這些模態特別感興趣,“從任意數量的輸入和感知中收集盡可能多的數據,然后給出盡可能多的響應。” Gemini最基本的模型是文本輸入和文本輸出,但更強大的模型(如Gemini Ultra)可以處理圖像、視頻和音頻。哈薩比斯說,它甚至會變得更加通用,有像動作和觸摸之類更像機器人類型的東西。他認為,隨著時間的推移,Gemini將獲得更多的感知,變得更有意識,并在這個過程中變得更加準確和穩定。“這些模型只是更好地了解周圍的世界。當然,這些模型仍然存在幻覺,并且仍然存在偏見和其他問題。”但哈薩比斯表示,它們知道的越多,就會做得越好。 ![]() 最新的演示里,Gemini能聽能說能看,還能教人類說中文。(02:35) 谷歌似乎特別將編程視為Gemini的殺手級應用程序,它使用了一種名為AlphaCode 2的新代碼生成系統,據稱該系統的性能優于85%的編程競賽參與者,而原始AlphaCode的這一比例為50%。谷歌首席執行官桑達爾·皮查伊(Sundar Pichai)表示,用戶會注意到模型涉及的幾乎所有方面都有所改進。 “不愿為了跟上步伐而走得太快” 值得注意的是,今年5月,包括哈薩比斯在內的500多名著名學者和行業領袖簽署的一份聲明稱,“與流行病和核戰爭等其他社會規模風險一樣,減輕人工智能帶來的滅絕風險應該成為全球優先事項。” 在這次發布會中,哈薩比斯和皮查伊對于谷歌似乎步調緩慢的說法回應道,他們不愿意為了跟上步伐而走得太快,“尤其是當我們越來越接近人工智能的終極夢想'通用人工智能’時”。“當我們接近通用人工智能時,事情將會有所不同。”哈薩比斯說,“這是某種具有主動性的技術,所以我認為我們必須謹慎對待,謹慎但樂觀。” 谷歌表示,通過內部和外部測試以及警示團隊(red-teaming),它一直在努力確保Gemini的安全和責任。皮查伊指出,確保數據的安全性和可靠性對于企業優先的產品尤為重要,這也是大多數生成式人工智能利潤的來源。與此同時,哈薩比斯也承認,推出最先進的人工智能系統的風險之一就是,它會出現沒人能預測到的問題和攻擊向量(attack vector)。“這就是為什么你必須釋放一些東西,去觀察和學習。”他說。 谷歌發布Gemini Ultra的速度較慢,哈薩比斯把它比作一個可控的測試版,為這個谷歌最強大、最不受約束的模型提供了一個“更安全的試驗區”。“基本上,如果Gemini有一個破壞婚姻的另類人格,谷歌會在你之前找到它。”這番話影射了此前微軟必應聊天機器人向《紐約時報》專欄作家凱文·盧斯(Kevin Roose)求婚,并試圖拆散他的婚姻。 上周,The Information報道稱,因為人工智能“無法可靠地處理一些非英語查詢”,所以谷歌原定于本周舉行的Gemini現場演示被無限期推遲。在回答有關外語問題的問題時,谷歌DeepMind產品副總裁艾力·柯林斯(Eli Collins)表示:“事實上,Gemini在多語言能力方面表現相當出色。” 谷歌最強TPU與AI超級計算機 與新模型一起亮相的,還有新版本的TPU芯片TPU v5p,旨在減少訓練大語言模型相關的時間投入。TPU是谷歌為神經網絡設計的專用芯片,經過優化可加快機器學習模型的訓練和推斷速度,谷歌于2016年起開始推出第一代TPU。 ![]() 谷歌TPU芯片參數比較。 據谷歌介紹,與TPU v4相比,TPU v5p的浮點運算性能提升了兩倍,在高帶寬內存方面提高了3倍。使用谷歌的600 GB/s芯片間互連,可以將8960個v5p加速器耦合在一個Pod(通常指一個包含多個芯片的集群或模塊)中,從而更快或更高精度地訓練模型。作為參考,該值比TPU v5e大35倍,是TPU v4的兩倍多。 谷歌稱,TPU v5p是其迄今為止最強大的,能夠提供459 teraFLOPS(每秒可執行459萬億次浮點運算)的bfloat16(16位浮點數格式)性能或918 teraOPS(每秒可執行918萬億次整數運算)的Int8(執行8位整數)性能,支持95GB的高帶寬內存,能夠以2.76 TB/s的速度傳輸數據。 谷歌表示,所有這些意味著TPU v5p可以比TPU v4更快地訓練大型語言模型,如訓練GPT-3(1750億參數)這樣的大語言模型速度比TPU v4快2.8倍。 不過,這種更高的性能和可擴展性也是有代價的。每個TPU v5p加速器的運行費用為每小時4.2美元,而TPU v4加速器為每小時3.22美元,TPU v5e加速器每小時1.2美元。 ![]() 谷歌TPU芯片訓練大模型的參數比較。 “在我們的早期使用階段,谷歌DeepMind和谷歌Research觀察到,與我們的TPU v4芯片相比,使用TPU v5p芯片的大語言模型(LLM)訓練工作負載的速度提高了兩倍。”谷歌DeepMind首席科學家杰夫·迪恩(Jeff Dean)寫道,“對機器學習框架(JAX、PyTorch、TensorFlow)和編排工具的強大支持使我們能夠在v5p上更高效地擴展。通過第二代SparseCores,我們還看到嵌入密集型工作負載的性能有了顯著提高。TPU對于我們在Gemini等尖端模型上進行最大規模的研究和工程工作至關重要。” 除了新硬件之外,谷歌還引入了“人工智能超級計算機”的概念。谷歌云將其描述為一種超級計算架構,包括一個集成系統,具有開放軟件、性能優化硬件、機器學習框架和靈活的消費模型。 谷歌計算和機器學習基礎設施部門副總裁馬克·洛邁爾(Mark Lohmeyer)在博客文章中解釋道,“傳統方法通常通過零碎的組件級增強來解決要求苛刻的人工智能工作負載,這可能會導致效率低下和瓶頸。”“相比之下,人工智能超級計算機采用系統級協同設計來提高人工智能訓練、調整和服務的效率和生產力。”這可以理解為,與單獨看待每個部分相比,這種合并將提高生產力和效率。換句話說,超級計算機是一個系統,其中任何可能導致性能低下的變量(硬件或軟件)都受到控制和優化。 |
|
來自: heshingshih > 《數字治理2023》