久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    完全圖解GPT-2:看完這篇就夠了(二)

     印度阿三17 2021-01-08
    在開始學習之前推薦大家可以多在      FlyAI競賽服務平臺多參加訓練和競賽,以此來提升自己的能力。FlyAI是為AI開發者提供數據競賽并支持GPU離線訓練的一站式服務平臺。每周免費提供項目開源算法樣例,支持算法能力變現以及快速的迭代算法模型。 

     摘要: 在本節中,我們會詳細介紹該過程是如何實現的。請注意,我們將會以試圖弄清單個單詞被如何處理的角度來看待這個問題。這也是我們會展示許多單個向量的原因。這實際上是通過將巨型矩陣相乘來實現的。但是我想直觀地看 ...

    在本系列文章的第一部分中,我們回顧了 Transformer 的基本工作原理,初步了解了 GPT-2 的內部結構。在本文中,我們將詳細介紹 GPT-2 所使用的自注意力機制,并分享只包含解碼器的 transformer 模型的精彩應用。 

    第二部分:圖解自注意力機制

    在前面的文章中,我們用這張圖來展示了自注意力機制在處理單詞「it」的層中的應用:

    在本節中,我們會詳細介紹該過程是如何實現的。請注意,我們將會以試圖弄清單個單詞被如何處理的角度來看待這個問題。這也是我們會展示許多單個向量的原因。這實際上是通過將巨型矩陣相乘來實現的。但是我想直觀地看看,在單詞層面上發生了什么。

    自注意力機制(不使用掩模)

    首先,我們將介紹原始的自注意力機制,它是在編碼器模塊里計算的。先看一個簡易的 transformer 模塊,它一次只能處理 4 個詞(token)。

    自注意力機制通過以下三個主要步驟來實現:

    1. 為每個路徑創建查詢、鍵和值向量。

    2. 對于每個輸入的詞,通過使用其查詢向量與其它所有鍵向量相乘得到注意力得分。

    3. 將值向量與它們相應的注意力得分相乘后求和

    1. 創建查詢、鍵和值向量

    我們重點關注第一條路徑。我們用它的查詢值與其它所有的鍵向量進行比較,這使得每個鍵向量都有一個對應的注意力得分。自注意力機制的第一步就是為每個詞(token)路徑(我們暫且忽略注意力頭)計算三個向量:查詢向量、鍵向量、值向量。

    2. 注意力得分

    計算出上述三個向量后,我們在第二步中只用查詢向量和鍵向量。我們重點關注第一個詞,將它的查詢向量與其它所有的鍵向量相乘,得到四個詞中的每個詞的注意力得分。

    3. 求和

    現在,我們可以將注意力得分與值向量相乘。在我們對其求和后,注意力得分較高的值將在結果向量中占很大的比重。

    注意力得分越低,我們在圖中顯示的值向量就越透明。這是為了表明乘以一個小的數是如何削弱向量值的影響的。

    如果我們在每一個路徑都執行相同的操作,最終會得到一個表征每個詞的向量,它包括了這個詞的適當的上下文,然后將這些信息在 transformer 模塊中傳遞給下一個子層(前饋神經網絡):

    圖解掩模自注意力機制

    現在我們已經介紹了 transformer 模塊中自注意力機制的步驟,接下來我們介紹掩模自注意力機制(masked self-attention)。在掩模自注意力機制中,除了第二步,其余部分與自注意力機制相同。假設模型輸入只包含兩個詞,我們正在觀察第二個詞。在這種情況下,后兩個詞都被屏蔽了。因此模型會干擾計算注意力得分的步驟。基本上,它總是為序列中后續的詞賦予 0 分的注意力得分,因此模型不會在后續單詞上得到較高的注意力得分:

    我們通常使用注意力掩模矩陣來實現這種屏蔽操作。不妨想象一個由四個單詞組成的序列(例如「robot must obey orders」(機器人必須服從命令))在語言建模場景中,這個序列被分成四步進行處理——每個單詞一步(假設現在每個單詞(word)都是一個詞(token))。由于這些模型都是批量執行的,我們假設這個小型模型的批處理大小為 4,它將整個序列(包含 4 步)作為一個批處理。

    在矩陣形式中,我們通過將查詢矩陣和鍵矩陣相乘來計算注意力得分。該過程的可視化結果如下所示,下圖使用的是與單元格中該單詞相關聯的查詢(或鍵)向量,而不是單詞本身:

    在相乘之后,我們加上注意力掩模三角矩陣。它將我們想要屏蔽的單元格設置為負無窮或非常大的負數(例如,在 GPT2 中為 -10 億):

    然后,對每一行執行 softmax 操作,從而得到我們在自注意力機制中實際使用的注意力得分:

    此分數表的含義如下:

    當模型處理數據集中的第一個示例(第一行)時,這里只包含了一個單詞(「robot」),所以 100% 的注意力都在該單詞上。

    當模型處理數據集中的第二個示例(第二行)時,這里包含了(「robot must」),當它處理單詞「must」時,48% 的注意力會在「robot」上,而另外 52% 的注意力會在「must」上。

    以此類推

    GPT-2 的掩模自注意力機制

    接下來,我們將更詳細地分析 GPT-2 的掩模自注意力機制。

    1. 模型評價時:一次只處理一個詞

    我們可以通過掩模自注意機制的方式執行 GPT-2。但是在模型評價時,當我們的模型每輪迭代后只增加一個新單詞時,沿著先前已經處理過的路徑再重新計算詞(tokrn)的自注意力是效率極低的。

    在這種情況下,我們處理第一個詞(暫時忽略 <s>)

    GPT-2 保存了詞「a」的鍵向量和值向量。每個自注意力層包括了該詞相應的鍵和值向量:

    在下一次迭代中,當模型處理單詞「robot」時,它不再需要為詞「a」生成查詢、鍵和值向量。它只需要復用第一次迭代中保存的向量:

    現在,在下一次迭代中,當模型處理單詞 robot 時,它不再需要為 token「a」生成查詢、鍵和值向量。它只需要復用第一次迭代中保存的向量:

    2. GPT-2 自注意力機制:1-創建查詢、鍵和值

    假設模型正在處理單詞「it」。對于下圖中底部的模塊來說,它對該詞的輸入則是「it」的嵌入向量 序列中第九個位置的位置編碼:

    Transformer 中的每個模塊都有自己的權重(之后會詳細分析)。我們首先看到的是用于創建查詢、鍵和值的權重矩陣。

    自注意力機制將它的輸入與權重矩陣相乘(并加上一個偏置向量,這里不作圖示)。

    相乘后得到的向量從基本就是單詞「it」的查詢、鍵和值向量連接 的結果。

    將輸入向量和注意力權重向量相乘(之后加上偏置向量)得到這個詞的鍵、值和查詢向量。

    3. GPT-2 自注意力機制:1.5-分裂成注意力頭

    在前面的示例中,我們直接介紹了自注意力機制而忽略了「多頭」的部分。現在,對這部分概念有所了解會大有用處。自注意力機制是在查詢(Q)、鍵(K)、值(V)向量的不同部分多次進行的。「分裂」注意力頭指的是,簡單地將長向量重塑成矩陣形式。在小型的 GPT-2 中,有 12 個注意力頭,因此這是重塑矩陣中的第一維:

    在前面的示例中,我們介紹了一個注意力頭的情況。多個注意力頭可以想象成這樣(下圖為 12 個注意力頭中的 3 個的可視化結果):

    4. GPT-2 自注意力機制:2-計算注意力得分

    我們接下來介紹計算注意力得分的過程——此時我們只關注一個注意力頭(其它注意力頭都進行類似的操作)。

    當前關注的詞(token)可以對與其它鍵詞的鍵向量相乘得到注意力得分(在先前迭代中的第一個注意力頭中計算得到):

    5. GPT-2 自注意力機制:3-求和

    正如前文所述,我們現在可以將每個值向量乘上它的注意力得分,然后求和,得到的是第一個注意力頭的自注意力結果:

    6. GPT-2 自注意力機制:3.5-合并多個注意力頭

    我們處理多個注意力頭的方式是先將它們連接成一個向量:

    但是這個向量還不能被傳遞到下一個子層。我們首先需要將這個隱含狀態的混合向量轉變成同質的表示形式。

    7. GPT-2 自注意力機制:4-投影

    我們將讓模型學習如何較好地將連接好的自注意力結果映射到一個前饋神經網絡可以處理的向量。下面是我們的第二個大型權重矩陣,它將注意力頭的結果投影到自注意力子層的輸出向量中:

    通過這個操作,我們可以生成能夠傳遞給下一層的向量:

    8. GPT-2 全連神經網絡:第一層

    在全連接神經網絡中,當自注意力機制已經將合適的上下文包含在其表征中之后,模塊會處理它的輸入詞。它由兩層組成:第一層的大小是模型的 4 倍(因為小型 GPT-2 的大小為 768 個單元,而這個網絡將有 768*4=3072 個單元)。為什么是 4 倍呢?這只是原始 transformer 的運行大小(模型維度為 512 而模型的第一層為 2048)。這似乎給 transformer 模型足夠的表征容量來處理目前面對的任務。

    9. GPT-2 全連神經網絡:第二層-投影到模型的維度

    第二層將第一層的結果投影回模型的維度大小(小型 GPT-2 的大小為 768)。這個乘法結果是該詞經過 transformer 模塊處理的結果。

    你成功處理完單詞「it」了!

    我們盡可能詳細地介紹了 transformer 模塊。現在,你已經基本掌握了 transformer 語言模型內部發生的絕大部分情況了。回顧一下,一個新的輸入向量會遇到如下所示的權重矩陣:

    而且每個模塊都有自己的一組權重。另一方面,這個模型只有一個詞嵌入矩陣和一個位置編碼矩陣:

    如果你想了解模型中的所有參數,下面是對它們的詳細統計結果:

    出于某些原因,該模型共計有 1 億 2,400 萬個參數而不是 1 億 1,700 萬個。我不確定這是為什么,但是這似乎就是發布的代碼中的數目(如果本文統計有誤,請讀者指正)。

    第三部分:語言建模之外

    只包含解碼器的 transformer 不斷地表現出在語言建模之外的應用前景。在許多應用程序中,這類模型已經取得了成功,它可以用與上面類似的可視化圖表來描述。在文章的最后,讓我們一起來回顧一下其中的一些應用。

    機器翻譯

    進行翻譯時,模型不需要編碼器。同樣的任務可以通過一個只有解碼器的 transformer 來解決:

    自動摘要生成

    這是第一個訓練只包含解碼器的 transformer 的任務。也就是說,該模型被訓練來閱讀維基百科的文章(沒有目錄前的開頭部分),然后生成摘要。文章實際的開頭部分被用作訓練數據集的標簽:

    論文使用維基百科的文章對模型進行了訓練,訓練好的模型能夠生成文章的摘要:

    遷移學習

    在論文「Sample Efficient Text Summarization Using a Single Pre-Trained Transformer」(https:///abs/1905.08836)中,首先使用只包含解碼器的 transformer 在語言建模任務中進行預訓練,然后通過調優來完成摘要生成任務。結果表明,在數據有限的情況下,該方案比預訓練好的編碼器-解碼器 transformer 得到了更好的效果。

    GPT2 的論文也展示了對語言建模模型進行預訓練后取得的摘要生成效果。

    音樂生成

    音樂 transformer(https://magenta./music-transformer)采用了只包含解碼器的 transformer (https://magenta./music-transformer)采用了只包含解碼器的transformer) 來生成具有豐富節奏和動感的音樂。和語言建模相似,「音樂建模」就是讓模型以一種無監督的方式學習音樂,然后讓它輸出樣本(我們此前稱之為「隨機工作」)。

    你可能會好奇,在這種情境下是如何表征音樂的?請記住,語言建模可以通過對字符、單詞(word)、或單詞(word)某個部分的詞(token)的向量表征來實現。面對一段音樂演奏(暫時以鋼琴為例),我們不僅要表征這些音符,還要表征速度——衡量鋼琴按鍵力度的指標。

    一段演奏可以被表征為一系列的 one-hot 向量。一個 MIDI 文件可以被轉換成這樣的格式。論文中展示了如下所示的輸入序列的示例:

    這個輸入序列的 one-hot 向量表征如下:

    我喜歡論文中用來展示音樂 transformer 中自注意力機制的可視化圖表。我在這里加了一些注釋:

    這段作品中出現了反復出現的三角輪廓。當前的查詢向量位于后面一個「高峰」,它關注前面所有高峰上的高音,一直到樂曲的開頭。圖中顯示了一個查詢向量(所有的注意力線來源)和正要處理的以前的記憶(突出了有更高 softmax 概率的音符)。注意力線的顏色對應于不同的注意力頭,而寬度對應于 softmax 概率的權重。

    如果你想進一步了解這種音符的表征,請觀看下面的視頻:https://www./watch?v=ipzR9bhei_o

    結語 

    至此,我們的 GPT-2 的完全解讀,以及對父類模型(只包含解碼器的 transformer)的分析就到此結束了。希望讀者能通過這篇文章對自注意力機制有更好的理解。在了解了 transformer 內部的工作原理之后,下次再遇到它,你將更加得心應手。

    更多深度學習競賽項目,大家可移步官網進行查看和參賽!

    來源:https://www./content-4-813801.html

      本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發現有害或侵權內容,請點擊一鍵舉報。
      轉藏 分享 獻花(0

      0條評論

      發表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 国产精品欧美一区二区三区不卡| 国产成人无码区免费内射一片色欲 | 中文字幕人妻在线精品| 无码专区视频精品老司机| 中文字幕人妻系列人妻有码| 精品乱人伦一区二区三区| 精品少妇人妻AV无码久久| 日本在线看片免费人成视频| 国产成人午夜福利在线播放| 国产办公室秘书无码精品99| 人妻少妇无码精品专区| 欧美高清狂热视频60一70| 无码激情亚洲一区| 日韩免费码中文在线观看| 国产桃色无码视频在线观看| 亚洲精品无码久久一线| 亚洲乱码中文字幕小综合| 果冻传媒MV国产推荐视频| 上课忘穿内裤被老师摸到高潮| 色猫咪av在线网址| 色偷偷888欧美精品久久久| 四虎库影成人在线播放| 波多野结系列18部无码观看AV| 日韩精品卡2卡3卡4卡5| 午夜美女裸体福利视频| 国产中文三级全黄| 久久精品丝袜高跟鞋| 精品一卡2卡三卡4卡乱码精品视频 | 国产精品自在欧美一区| 男女扒开双腿猛进入爽爽免费看 | 性欧美vr高清极品| 久久国产成人亚洲精品影院老金| 免费无码又爽又刺激毛片| 人妻精品动漫H无码中字| 亚洲日韩性欧美中文字幕| 日日摸夜夜添狠狠添欧美| 成人午夜av在线播放| 国模吧无码一区二区三区| 国产精品亚洲二区在线播放| 国产农村妇女毛片精品久久| 色天天天综合网色天天|