久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    AI:大力出奇跡?Bigger is better?AI下一代浪潮?—人工智能的大語言模型(LLMs)的簡介、發展以及未來趨勢

     醫學abeycd 2023-09-05 發布于湖北

    AI:大力出奇跡?Bigger is better?AI下一代浪潮?—人工智能的大語言模型(LLMs)的簡介、發展以及未來趨勢

    目錄

    人工智能的大語言模型(LLMs)—AI下一代浪潮?Bigger is better?大力出奇跡?

    單體模型VS混合模型

    大模型的意義

    大模型的局限性

    大模型的四個障礙

    未來的AI藍圖要擁抱綠色低碳

    2017年以來,大規模語言模型發展史

    未來趨勢


    人工智能的大語言模型(LLMs)—AI下一代浪潮?Bigger is better?大力出奇跡?

              大型語言模型(LLMs)是在包含巨大數據量的大規模數據集上訓練的。中國工程院院士王恩東表示:“人工智能如何發展出像人類具備邏輯、意識和推理的認知能力,是人工智能研究一直探索的方向。目前來看,通過大規模數據訓練超大參數量的巨量模型,被認為是非常有希望實現通用人工智能的一個重要方向。”隨著巨量模型的興起,巨量化已成為未來人工智能發展非常重要的一個趨勢。而巨量化的一個核心特征就是模型參數多訓練數據量大
              2018 年谷歌發布BERT,從此,預訓練模型(Pre-trained Models, PTMs)逐漸成為自然語言處理領域的主流。當然,預訓練模型如今已經成為深度學習研究中的一種主流范式。
              2020年,GPT-3 橫空出世,這個具有 1750 億參數規模的預訓練模型所表現出來的零樣本與小樣本學習能力刷新了人們的認知。作為一個語言生成模型,GPT-3 不僅能夠生成流暢自然的文本,還能完成問答、翻譯、創作小說等一系列 NLP 任務,甚至進行簡單的算術運算,并且其性能在很多任務上都超越相關領域的專有模型,達到 SOTA 水平。從此,OpenAI開始引爆了 2021 年 AI 大模型研究的熱潮,大模型成為幾乎所有全球頭部AI公司的追逐目標。

              在大模型的賽道上,算力公司、算法公司、數據公司,研究機構正在展開新一輪競賽。
              國內外AI頭部公司,包括谷歌、微軟、英偉達、智源人工智能研究院、阿里、百度、華為、騰訊、浪潮等國內外科技巨頭和機構紛紛展開大模型研究和探索。
              2021年,人工智能正式邁向“煉大模型”階段,開展了超大規模預訓練模型的“軍備競賽”。通過設計先進的算法、整合盡可能多的數據、匯聚大量算力、集約化地訓練大模型,供大量企業使用。2021年,也被很多業界同行稱為超大規模預訓練模型的“爆發之年”。自去年 OpenAI 發布英文領域超大規模預訓練語言模型 GPT-3 后,中文領域同類模型的訓練進程備受關注。
              2021年1月,Google 推出的 Switch Transformer 模型以高達 1.6 萬億的參數量打破了 GPT-3 作為最大 AI 模型的統治地位,成為史上首個萬億級語言模型。
              2021年6月20日,舉辦的 2021 深度學習開發者峰會 WAVE SUMMIT 上,依托飛槳核心框架,百度文心 ERNIE 最新開源四大預訓練模型:多粒度語言知識增強模型 ERNIE-Gram、長文本理解模型 ERNIE-Doc、融合場景圖知識的跨模態理解模型 ERNIE-ViL、語言與視覺一體的模型 ERNIE-UNIMO。針對傳統預訓練技術現存的難點痛點,此次文心ERNIE開源的四大預訓練模型不僅在文本語義理解、長文本建模和跨模態理解三大領域取得突破,效果上超越谷歌、微軟等業界模型,還擁有廣泛的應用場景和前景,進一步助力產業智能化升級。
              2021年6月,第三屆北京智源大會上,北京智源人工智能研究院發布了超大規模智能模型“悟道 2.0”,達到1.75 萬億參數,超過 Switch Transformer 成為全球最大的預訓練模型。

              隨著處理能力和數據源的增長,深度學習中曾經的趨勢已經成為一個原則:越大越好。近年來,語言模型的規模越來越大,只有像Google、Microsoft、NVIDIA等大公司才可以玩轉千億/萬億級的大模型,而且事實證明以大模型為基礎探索通用智能的道路也遠遠沒有到盡頭,國內產業和學術界在對大模型的探索上也亦步亦趨,大規模的AI設備集群和通用性的軟硬件生態協同越來越成為信息時代急需的基礎設施,未來制約人工智能發展的不僅僅是對人才的競爭,大科學裝置和對多場景應用的通用全棧式技術生態的不斷發展進化,也越來越重要。
              2021年底總結的時候,Jeff說到,這些大模型通常使用自監督學習方法,這個趨勢令人興奮。一方面可以大大減少工作量,另一方面在長尾任務中也能取得更好表現

    單體模型VS混合模型

              現在業界提高模型參數量有兩種技術路線,產生兩種不同的模型結構,一種是單體模型,一種是混合模型。如華為的盤古大模型、百度的文心大模型、英偉達聯合微軟發布的自然語言生成模型 MT-NLG 、浪潮的源大模型等走的都是單體模型路線;而智源的悟道模型、阿里 M6 等走的是混合模型路線。

    大模型的意義

    • 大模型被大多數專家認為是走向AGI的重要途徑之一。超大規模預訓練模型是從弱人工智能向通用人工智能的突破性探索,解決了傳統深度學習的應用碎片化難題,引發科研機構和企業重點投入。

    • 大模型泛化能力強可減少數據標注依賴。可以吸收海量知識,從里面提高模型的泛化能力,可以減少對領域數據標注的依賴。

    • 大模型的預先學習可減輕特定領域的數據量。超大規模預訓練模型在海量通用數據上進行預先學習和訓練,能有效緩解AI領域通用數據的激增與專用數據匱乏的矛盾,具備通用智能的雛形。

    • 大模型具有強通用性少樣本學習能力。預訓練大模型普適性強,可滿足垂直行業的共性需求。預訓練大模型遷移性好,可滿足典型產品的技術要求。GPT-3凸顯了一種小樣本學習以及泛化能力,而且兩個層面的能力都非常優秀。

    • 大模型提高了模型使用效率。業內普遍認為“一次開發,終身使用”。擁有更通識的大模型將為細分任務奠定基礎,后續應用無需投入大量標注數據及從頭訓練調參,效率明顯提升。

    • 大模型承上啟下,深刻影響底層技術和上層應用的發展;向下驅動數據技術和計算架構能力的提升,支撐模型訓練、部署和優化,向上支撐上層應用的服務轉型。

    • 模型的參數規模越大,優勢越明顯。

    • AIGC(AI生成內容)就是大模型落地的一個重要方向(內容消費/創意設計)。

              AIGC(AI Generated Content,人工智能創造內容/虛擬內容/虛擬人),借助大模型的跨模態綜合技術能力,可以激發創意,提升內容多樣性,降低制作成本,將會實現大規模應用。隨著深度學習的發展,AI生成虛擬內容AIGC正滲透在圖像、視頻、CG、AI訓練數據等各類領域,甚至同時覆蓋多模態的虛擬人技術。其中虛擬數字人,指存在于非物理世界中,由圖形渲染、動作捕捉、語音合成等計算機手段創造及使用,并具有多重人類特征的綜合產物。目前分為「CG建模+真人驅動」和「深度合成+計算驅動」兩類。

    大模型的局限性

    • 資本門檻:大模型的訓練,以GPT-3為例,訓練一次的成本是1200萬美金;

    • 技術門檻:AI框架的深度優化和并行能力要求很高。

    • 跨領域門檻:大模型多方向問題亟待解決,生態建設不容小覷。未來預訓練大模型將重點解決應用、可信、跨學科合作、資源不平衡和開放共享等問題。

    大模型的四個障礙

              Andrew NG 認為,構建越來越大的模型的努力帶來了自己的挑戰。龐大模型的開發人員必須克服四個巨大的障礙。

    • 數據:大型模型需要大量數據,但網絡和數字圖書館等大型來源可能缺乏高質量數據。例如,研究人員發現 BookCorpus 是一個包含 11,000 本電子書的集合,已被用于訓練 30 多個大型語言模型,可能會傳播對某些宗教的偏見,因為它缺乏討論基督教和伊斯蘭教以外信仰的文本。 AI 社區越來越意識到數據質量至關重要,但尚未就編譯大規模、高質量數據集的有效方法達成共識。

    • 速度:今天的硬件難以處理龐大的模型,當位反復進出內存時,這些模型可能會陷入困境。為了減少延遲,Switch Transformer 背后的 Google 團隊開發了一種方法,可以為每個令牌處理模型層的選定子集。他們最好的模型的預測速度比參數數量只有其 1/30 的模型快 66%。同時,微軟開發了 DeepSpeed 庫,它并行處理數據、單個層和層組,并通過在 CPU 和 GPU 之間劃分任務來減少冗余處理。

    • 能源:訓練如此龐大的網絡會消耗大量的電能。 2019 年的一項研究發現,使用化石燃料,在 8 個 Nvidia P100 GPU 上訓練一個 2 億參數的變壓器模型,在五年的駕駛過程中排放的二氧化碳幾乎與一輛普通汽車一樣多。新一代有望加速人工智能的芯片,如 Cerebras 的 WSE-2 和谷歌最新的 TPU,可能有助于減少排放,同時風能、太陽能和其他清潔能源增加以滿足需求。

    • 交付:這些龐大的模型太大而無法在消費者或邊緣設備上運行,因此大規模部署它們需要互聯網訪問(較慢)或精簡實施(能力較弱)。

    未來的AI藍圖要擁抱綠色低碳—綠色AI

              眾所周知,全球變暖是人類的行為造成地球氣候變化的后果。2020年9月,中國提出努力爭取在2060年前實現碳中和。為了能夠早日實現我國關于“碳中和”以及“碳達峰”的戰略目標,在今后的40年當中,中國在產業、消費、能源以及區域結構等方面都會做出重大整頓。
              隨著“碳中和”逐步被提高到國家戰略的高度之上,人工智能行業,包括機器學習模型當然也要倡導追求碳中和。不可否認,數據集和模型規模的增長,帶來了多種語言任務上準確率的顯著提升,并通過NLP 基準任務上的全面改進證明了這一點,但是不應該把模型性能當作唯一標準。未來的AI藍圖要擁抱綠色低碳,助力實現碳達峰碳中和目標。
              隨著AI技術加速與各行各業融合創新,數據中心和大規模AI計算實現了重要的經濟和社會價值,但其能耗和對環境的影響不容忽視,亟需發展對環境更友好的“綠色AI”技術,降低模型訓練和使用的能耗。
              針對該問題,來自谷歌和美國加州大學伯克利分校的研究人員最近聯合發表一項研究論文,著重評估并比較了 5 個大型自然語言處理(NLP)模型的能耗和碳排放量,其中包括 T5、Meena、GShard、Switch Transformer 和 GPT-3。該論文提出,如果推出同時考量模型準確性和碳排放的標準,我們就可以想象一個良性循環,通過加速算法、系統、硬件、數據中心以及碳中和在效率和成本方面的創新,即可減緩機器學習任務碳足跡的日益增長。
              未來幾年,“綠色AI”相關技術將持續蓬勃發展,圍繞高能效的架構設計、訓練和推理策略、數據利用等構建體系,形成兼顧性能和能耗的評價標準。算力更高、能耗較低的AI芯片將不斷涌現;領軍AI企業構建集約化的大算力和大模型,改善下游性能,降低整體能耗成本。

    相關文章
    《Carbon Emissions and Large Neural Network Training》 http:///abs/2104.10350v2

    2017年以來,大規模語言模型發展史

    發布時間

    大模型

    參數量

    訓練數據

    多模態

    功能

    機構

    2017年GPT-11.1億
    文本
    OpenAI

    2018年

    10月

    Bert3.4億
    文本
    Google

    2019年

    08月

    GPT-215億
    文本
    OpenAI

    2019年

    08月

    MegatronLM83億
    文本
    NVIDIA
    2020年01月Turing-NLG170 億
    文本
    Microsoft
    2020年05月GPT-31750 億45TB文本NLU,文本生成OpenAI
    2020年06月GShard6190 億比擁有 1750 億參數的 GPT-3 消耗的能源少約 53 倍,凈碳排放量少約 127 倍,這主要得益于 GShard 在算法+硬件上的多重優化。

    Google
    2021 年 01月Switch Transformer1.6萬億


    Google
    2021年03月

    CPM-1

    (悟道2.0,文源)

    26億
    文本NLU,文本生成智源研究院

    2021年04月

    PLUG

    270億

    >1.1TB high-quality

    文本

    NLU,文本生成

    阿里達摩院

    2021年04月

    盤古-α

    2000億

    1.1TB high-quality
    80TB raw

    文本

    NLU,文本生成

    華為&循環智能

    2021年04月

    孟子(BERT, T5,Oscar)

    10億

    300GB

    文本,圖像

    NLU,文本生成
    圖像生成文本

    瀾舟科技

    2021年06月

    M6

    1000億

    1.9TB images
    292GB texts

    文本,圖像

    NLU,文本生成
    圖像生成文本文本生成圖像

    阿里達摩院

    2021年06月

    CPM-2

    (悟道2.0)

    CPM-MoE

    總共1.75萬億

    其中110億中文模型

    110億中英模型

    1980億中英MoE模型

    2.3TB Chinese
    300GB English

    文本

    NLU,文本生成

    智源研究院

    2021年06月

    CogView(悟道-文匯)

    40億

    30 million high-quality (Chinese) text-image pairs

    文本,圖像

    文本生成圖像
    圖像生成文本

    智源研究院

    2021年07月

    ERNIE3.0

    100億

    4TB text and KG

    文本

    NLU,文本生成

    百度

    2021年09月

    源1.0

    2457億

    5TB high-quality

    文本

    NLU,文本生成

    浪潮

    2021年10月Megatron Turing-NLG
    威震天-圖靈
    5300億

    文本

    NLU

    Microsoft+NVIDIA

    2021年10月

    神農

    10億

    數百GB

    文本

    NLU,文本生成

    騰訊

    2021年12月

    Gopher

     2800億

    10.5TB 的MassiveText語料庫

    文本

    Gopher在 124 項評估任務中的 100 項中優于當前最先進的技術。DeepMind
    2021年12月

    ERNIE3.0 Titan

    2600億


    百度
    2021年12月GLaM1.2 萬億

    通用稀疏語言模型


    7 項小樣本學習領域的性能超過 GPT-3

    Google

    :該表將持續更新

    未來趨勢

             清華大學教授、智源大模型技術委員會成員劉知遠說: “大規模預訓練模型是人工智能的最新技術高地,是對海量數據、高性能計算和學習理論原始創新的全方位考驗”。
              大小模型協同進化。大模型參數競賽,在未來某個時刻,會進入冷靜期,大小模型將在云邊端協同進化。達摩院認為,因性能與能耗提升不成比例,受效率問題的限制,大模型參數競賽將進入冷靜期,大小模型云邊端協同進化會是未來趨勢。 大模型向邊、端的小模型輸出模型能力,小模型負責實際的推理與執行,同時小模型再向大模型反饋算法與執行成效,讓大模型的能力持續強化,形成有機循環的智能體系。

    相關文章
    NLP之PLUG:阿里達摩院發布最大中文預訓練語言模型PLUG的簡介、架構組成、模型訓練、使用方法之詳細攻略_一個處女座的程序猿-CSDN博客

     
    Top AI Stories of 2021: Transformers Take Over, Models Balloon, Multimodal AI Takes Off, Governments Crack Down - The Batch | DeepLearning.AI

      本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發現有害或侵權內容,請點擊一鍵舉報。
      轉藏 分享 獻花(0

      0條評論

      發表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 天堂mv在线mv免费mv香蕉| 免费无码成人AV在线播放不卡| 韩国精品久久久久久无码| 亚洲影院丰满少妇中文字幕无码| 亚洲AV毛片一区二区三区| 国产精品中文字幕av| 97精品亚成在人线免视频 | 国产精品SM捆绑调教视频| 精品无码久久久久成人漫画| 亚洲国产精品无码中文LV| 免费AV片在线观看网址| 好涨好硬好爽免费视频| 青青青青久久精品国产| 久久午夜无码鲁丝片直播午夜精品 | 中文字幕人妻精品在线| 亚洲理论电影在线观看| 中文字幕永久精品国产| 在线天堂最新版资源| 日韩国产精品中文字幕| 国产成人乱色伦区| 国产美女被遭强高潮免费一视频| 人人妻人人添人人爽欧美一区| 野外做受三级视频| 亚洲爆乳精品无码AAA片| 正在播放酒店约少妇高潮| 亚洲人成色99999在线观看| 成人特黄A级毛片免费视频| 久久精品不卡一区二区| 亚洲韩欧美第25集完整版| 老司机午夜精品视频资源| 伊人久久大香线蕉亚洲五月天| 无码毛片一区二区本码视频| 亚洲成人av在线系列| 亚洲AV永久纯肉无码精品动漫| 亚洲国产日韩在线人成蜜芽| 国产精品久久中文字幕| 人妻久久久一区二区三区| 国产成人欧美日本在线观看| 日本一区不卡高清更新二区| 中文有无人妻VS无码人妻激烈| 欧美牲交A欧美在线|