• <tfoot id="ukgsw"><input id="ukgsw"></input></tfoot>
    
    • 久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
      分享

      理解 Memory barrier(內存屏障) | Name5566

       老匹夫 2014-09-12

      參考文獻列表:
      http://en./wiki/Memory_barrier
      http://en./wiki/Out-of-order_execution
      https://www./doc/Documentation/memory-barriers.txt

      本文例子均在 Linux(g++)下驗證通過,CPU 為 X86-64 處理器架構。所有羅列的 Linux 內核代碼也均在(或只在)X86-64 下有效。

      本文首先通過范例(以及內核代碼)來解釋 Memory barrier,然后介紹一個利用 Memory barrier 實現的無鎖環形緩沖區。

      Memory barrier 簡介

      程序在運行時內存實際的訪問順序和程序代碼編寫的訪問順序不一定一致,這就是內存亂序訪問。內存亂序訪問行為出現的理由是為了提升程序運行時的性能。內存亂序訪問主要發生在兩個階段:

      1. 編譯時,編譯器優化導致內存亂序訪問(指令重排)
      2. 運行時,多 CPU 間交互引起內存亂序訪問

      Memory barrier 能夠讓 CPU 或編譯器在內存訪問上有序。一個 Memory barrier 之前的內存訪問操作必定先于其之后的完成。Memory barrier 包括兩類:

      1. 編譯器 barrier
      2. CPU Memory barrier

      很多時候,編譯器和 CPU 引起內存亂序訪問不會帶來什么問題,但一些特殊情況下,程序邏輯的正確性依賴于內存訪問順序,這時候內存亂序訪問會帶來邏輯上的錯誤,例如:

      1. // thread 1
      2. while (!ok);
      3. do(x);
      4.  
      5. // thread 2
      6. x = 42;
      7. ok = 1;

      此段代碼中,ok 初始化為 0,線程 1 等待 ok 被設置為 1 后執行 do 函數。假如說,線程 2 對內存的寫操作亂序執行,也就是 x 賦值后于 ok 賦值完成,那么 do 函數接受的實參就很可能出乎程序員的意料,不為 42。

      編譯時內存亂序訪問

      在編譯時,編譯器對代碼做出優化時可能改變實際執行指令的順序(例如 gcc 下 O2 或 O3 都會改變實際執行指令的順序):

      1. // test.cpp
      2. int x, y, r;
      3. void f()
      4. {
      5. x = r;
      6. y = 1;
      7. }

      編譯器優化的結果可能導致 y = 1 在 x = r 之前執行完成。首先直接編譯此源文件:

      1. g++ -S test.cpp

      得到相關的匯編代碼如下:

      1. movl r(%rip), %eax
      2. movl %eax, x(%rip)
      3. movl $1, y(%rip)

      這里我們看到,x = r 和 y = 1 并沒有亂序。現使用優化選項 O2(或 O3)編譯上面的代碼(g++ -O2 -S test.cpp),生成匯編代碼如下:

      1. movl r(%rip), %eax
      2. movl $1, y(%rip)
      3. movl %eax, x(%rip)

      我們可以清楚的看到經過編譯器優化之后 movl $1, y(%rip) 先于 movl %eax, x(%rip) 執行。避免編譯時內存亂序訪問的辦法就是使用編譯器 barrier(又叫優化 barrier)。Linux 內核提供函數 barrier() 用于讓編譯器保證其之前的內存訪問先于其之后的完成。內核實現 barrier() 如下(X86-64 架構):

      1. #define barrier() __asm__ __volatile__("" ::: "memory")

      現在把此編譯器 barrier 加入代碼中:

      1. int x, y, r;
      2. void f()
      3. {
      4. x = r;
      5. __asm__ __volatile__("" ::: "memory");
      6. y = 1;
      7. }

      這樣就避免了編譯器優化帶來的內存亂序訪問的問題了(如果有興趣可以再看看編譯之后的匯編代碼)。本例中,我們還可以使用 volatile 這個關鍵字來避免編譯時內存亂序訪問(而無法避免后面要說的運行時內存亂序訪問)。volatile 關鍵字能夠讓相關的變量之間在內存訪問上避免亂序,這里可以修改 x 和 y 的定義來解決問題:

      1. volatile int x, y;
      2. int r;
      3. void f()
      4. {
      5. x = r;
      6. y = 1;
      7. }

      現加上了 volatile 關鍵字,這使得 x 相對于 y、y 相對于 x 在內存訪問上有序。在 Linux 內核中,提供了一個宏 ACCESS_ONCE 來避免編譯器對于連續的 ACCESS_ONCE 實例進行指令重排。其實 ACCESS_ONCE 實現源碼如下:

      1. #define ACCESS_ONCE(x) (*(volatile typeof(x) *)&(x))

      此代碼只是將變量 x 轉換為 volatile 的而已。現在我們就有了第三個修改方案:

      1. int x, y, r;
      2. void f()
      3. {
      4. ACCESS_ONCE(x) = r;
      5. ACCESS_ONCE(y) = 1;
      6. }

      到此基本上就闡述完了我們的編譯時內存亂序訪問的問題。下面開始介紹運行時內存亂序訪問。

      運行時內存亂序訪問

      在運行時,CPU 雖然會亂序執行指令,但是在單個 CPU 的上,硬件能夠保證程序執行時所有的內存訪問操作看起來像是按程序代碼編寫的順序執行的,這時候 Memory barrier 沒有必要使用(不考慮編譯器優化的情況下)。這里我們了解一下 CPU 亂序執行的行為。在亂序執行時,一個處理器真正執行指令的順序由可用的輸入數據決定,而非程序員編寫的順序。
      早期的處理器為有序處理器(In-order processors),有序處理器處理指令通常有以下幾步:

      1. 指令獲取
      2. 如果指令的輸入操作對象(input operands)可用(例如已經在寄存器中了),則將此指令分發到適當的功能單元中。如果一個或者多個操作對象不可用(通常是由于需要從內存中獲取),則處理器會等待直到它們可用
      3. 指令被適當的功能單元執行
      4. 功能單元將結果寫回寄存器堆(Register file,一個 CPU 中的一組寄存器)

      相比之下,亂序處理器(Out-of-order processors)處理指令通常有以下幾步:

      1. 指令獲取
      2. 指令被分發到指令隊列
      3. 指令在指令隊列中等待,直到輸入操作對象可用(一旦輸入操作對象可用,指令就可以離開隊列,即便更早的指令未被執行)
      4. 指令被分配到適當的功能單元并執行
      5. 執行結果被放入隊列(而不立即寫入寄存器堆)
      6. 只有所有更早請求執行的指令的執行結果被寫入寄存器堆后,指令執行的結果才被寫入寄存器堆(執行結果重排序,讓執行看起來是有序的)

      從上面的執行過程可以看出,亂序執行相比有序執行能夠避免等待不可用的操作對象(有序執行的第二步)從而提高了效率。現代的機器上,處理器運行的速度比內存快很多,有序處理器花在等待可用數據的時間里已經可以處理大量指令了。
      現在思考一下亂序處理器處理指令的過程,我們能得到幾個結論:

      1. 對于單個 CPU 指令獲取是有序的(通過隊列實現)
      2. 對于單個 CPU 指令執行結果也是有序返回寄存器堆的(通過隊列實現)

      由此可知,在單 CPU 上,不考慮編譯器優化導致亂序的前提下,多線程執行不存在內存亂序訪問的問題。我們從內核源碼也可以得到類似的結論(代碼不完全的摘錄):

      1. #ifdef CONFIG_SMP
      2. #define smp_mb() mb()
      3. #else
      4. #define smp_mb() barrier()
      5. #endif

      這里可以看到,如果是 SMP 則使用 mb,mb 被定義為 CPU Memory barrier(后面會講到),而非 SMP 時,直接使用編譯器 barrier。

      在多 CPU 的機器上,問題又不一樣了。每個 CPU 都存在 cache(cache 主要是為了彌補 CPU 和內存之間較慢的訪問速度),當一個特定數據第一次被特定一個 CPU 獲取時,此數據顯然不在 CPU 的 cache 中(這就是 cache miss)。此 cache miss 意味著 CPU 需要從內存中獲取數據(這個過程需要 CPU 等待數百個周期),此數據將被加載到 CPU 的 cache 中,這樣后續就能直接從 cache 上快速訪問。當某個 CPU 進行寫操作時,它必須確保其他的 CPU 已經將此數據從它們的 cache 中移除(以便保證一致性),只有在移除操作完成后此 CPU 才能安全的修改數據。顯然,存在多個 cache 時,我們必須通過一個 cache 一致性協議來避免數據不一致的問題,而這個通訊的過程就可能導致亂序訪問的出現,也就是這里說的運行時內存亂序訪問。這里不再深入討論整個細節,這是一個比較復雜的問題,有興趣可以研究 http://www./users/paulmck/scalability/paper/whymb.2010.06.07c.pdf 一文,其詳細的分析了整個過程。

      現在通過一個例子來說明多 CPU 下內存亂序訪問:

      1. // test2.cpp
      2. #include <pthread.h>
      3. #include <assert.h>
      4.  
      5. // -------------------
      6. int cpu_thread1 = 0;
      7. int cpu_thread2 = 1;
      8.  
      9. volatile int x, y, r1, r2;
      10.  
      11. void start()
      12. {
      13. x = y = r1 = r2 = 0;
      14. }
      15.  
      16. void end()
      17. {
      18. assert(!(r1 == 0 && r2 == 0));
      19. }
      20.  
      21. void run1()
      22. {
      23. x = 1;
      24. r1 = y;
      25. }
      26.  
      27. void run2()
      28. {
      29. y = 1;
      30. r2 = x;
      31. }
      32.  
      33. // -------------------
      34. static pthread_barrier_t barrier_start;
      35. static pthread_barrier_t barrier_end;
      36.  
      37. static void* thread1(void*)
      38. {
      39. while (1) {
      40. pthread_barrier_wait(&barrier_start);
      41. run1();
      42. pthread_barrier_wait(&barrier_end);
      43. }
      44.  
      45. return NULL;
      46. }
      47.  
      48. static void* thread2(void*)
      49. {
      50. while (1) {
      51. pthread_barrier_wait(&barrier_start);
      52. run2();
      53. pthread_barrier_wait(&barrier_end);
      54. }
      55.  
      56. return NULL;
      57. }
      58.  
      59. int main()
      60. {
      61. assert(pthread_barrier_init(&barrier_start, NULL, 3) == 0);
      62. assert(pthread_barrier_init(&barrier_end, NULL, 3) == 0);
      63.  
      64. pthread_t t1;
      65. pthread_t t2;
      66. assert(pthread_create(&t1, NULL, thread1, NULL) == 0);
      67. assert(pthread_create(&t2, NULL, thread2, NULL) == 0);
      68.  
      69. cpu_set_t cs;
      70. CPU_ZERO(&cs);
      71. CPU_SET(cpu_thread1, &cs);
      72. assert(pthread_setaffinity_np(t1, sizeof(cs), &cs) == 0);
      73. CPU_ZERO(&cs);
      74. CPU_SET(cpu_thread2, &cs);
      75. assert(pthread_setaffinity_np(t2, sizeof(cs), &cs) == 0);
      76.  
      77. while (1) {
      78. start();
      79. pthread_barrier_wait(&barrier_start);
      80. pthread_barrier_wait(&barrier_end);
      81. end();
      82. }
      83.  
      84. return 0;
      85. }

      這里創建了兩個線程來運行測試代碼(需要測試的代碼將放置在 run 函數中)。我使用了 pthread barrier(區別于本文討論的 Memory barrier)主要為了讓兩個子線程能夠同時運行它們的 run 函數。此段代碼不停的嘗試同時運行兩個線程的 run 函數,以便得出我們期望的結果。在每次運行 run 函數前會調用一次 start 函數(進行數據初始化),run 運行后會調用一次 end 函數(進行結果檢查)。run1 和 run2 兩個函數運行在哪個 CPU 上則通過 cpu_thread1 和 cpu_thread2 兩個變量控制。
      先編譯此程序:g++ -lpthread -o test2 test2.cpp(這里未優化,目的是為了避免編譯器優化的干擾)。需要注意的是,兩個線程運行在兩個不同的 CPU 上(CPU 0 和 CPU 1)。只要內存不出現亂序訪問,那么 r1 和 r2 不可能同時為 0,因此斷言失敗表示存在內存亂序訪問。編譯之后運行此程序,會發現存在一定概率導致斷言失敗。為了進一步說明問題,我們把 cpu_thread2 的值改為 0,換而言之就是讓兩個線程跑在同一個 CPU 下,再運行程序發現斷言不再失敗。

      最后,我們使用 CPU Memory barrier 來解決內存亂序訪問的問題(X86-64 架構下):

      1. int cpu_thread1 = 0;
      2. int cpu_thread2 = 1;
      3.  
      4. void run1()
      5. {
      6. x = 1;
      7. __asm__ __volatile__("mfence" ::: "memory");
      8. r1 = y;
      9. }
      10.  
      11. void run2()
      12. {
      13. y = 1;
      14. __asm__ __volatile__("mfence" ::: "memory");
      15. r2 = x;
      16. }

      準備使用 Memory barrier

      Memory barrier 常用場合包括:

      1. 實現同步原語(synchronization primitives)
      2. 實現無鎖數據結構(lock-free data structures)
      3. 驅動程序

      實際的應用程序開發中,開發者可能完全不知道 Memory barrier 就可以開發正確的多線程程序,這主要是因為各種同步機制中已經隱含了 Memory barrier(但和實際的 Memory barrier 有細微差別),這就使得不直接使用 Memory barrier 不會存在任何問題。但是如果你希望編寫諸如無鎖數據結構,那么 Memory barrier 還是很有用的。

      通常來說,在單個 CPU 上,存在依賴的內存訪問有序:

      1. Q = P;
      2. D = *Q;

      這里內存操作有序。然而在 Alpha CPU 上,存在依賴的內存讀取操作不一定有序,需要使用數據依賴 barrier(由于 Alpha 不常見,這里就不詳細解釋了)。

      在 Linux 內核中,除了前面說到的編譯器 barrier — barrier() 和 ACCESS_ONCE(),還有 CPU Memory barrier:

      1. 通用 barrier,保證讀寫操作有序的,mb() 和 smp_mb()
      2. 寫操作 barrier,僅保證寫操作有序的,wmb() 和 smp_wmb()
      3. 讀操作 barrier,僅保證讀操作有序的,rmb() 和 smp_rmb()

      注意,所有的 CPU Memory barrier(除了數據依賴 barrier 之外)都隱含了編譯器 barrier。這里的 smp 開頭的 Memory barrier 會根據配置在單處理器上直接使用編譯器 barrier,而在 SMP 上才使用 CPU Memory barrier(也就是 mb()、wmb()、rmb(),回憶上面相關內核代碼)。

      最后需要注意一點的是,CPU Memory barrier 中某些類型的 Memory barrier 需要成對使用,否則會出錯,詳細來說就是:一個寫操作 barrier 需要和讀操作(或數據依賴)barrier 一起使用(當然,通用 barrier 也是可以的),反之依然。

      Memory barrier 的范例

      讀內核代碼進一步學習 Memory barrier 的使用。
      Linux 內核實現的無鎖(只有一個讀線程和一個寫線程時)環形緩沖區 kfifo 就使用到了 Memory barrier,實現源碼如下:

      1. /*
      2. * A simple kernel FIFO implementation.
      3. *
      4. * Copyright (C) 2004 Stelian Pop <stelian@popies.net>
      5. *
      6. * This program is free software; you can redistribute it and/or modify
      7. * it under the terms of the GNU General Public License as published by
      8. * the Free Software Foundation; either version 2 of the License, or
      9. * (at your option) any later version.
      10. *
      11. * This program is distributed in the hope that it will be useful,
      12. * but WITHOUT ANY WARRANTY; without even the implied warranty of
      13. * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
      14. * GNU General Public License for more details.
      15. *
      16. * You should have received a copy of the GNU General Public License
      17. * along with this program; if not, write to the Free Software
      18. * Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
      19. *
      20. */
      21.  
      22. #include <linux/kernel.h>
      23. #include <linux/module.h>
      24. #include <linux/slab.h>
      25. #include <linux/err.h>
      26. #include <linux/kfifo.h>
      27. #include <linux/log2.h>
      28.  
      29. /**
      30. * kfifo_init - allocates a new FIFO using a preallocated buffer
      31. * @buffer: the preallocated buffer to be used.
      32. * @size: the size of the internal buffer, this have to be a power of 2.
      33. * @gfp_mask: get_free_pages mask, passed to kmalloc()
      34. * @lock: the lock to be used to protect the fifo buffer
      35. *
      36. * Do NOT pass the kfifo to kfifo_free() after use! Simply free the
      37. * &struct kfifo with kfree().
      38. */
      39. struct kfifo *kfifo_init(unsigned char *buffer, unsigned int size,
      40. gfp_t gfp_mask, spinlock_t *lock)
      41. {
      42. struct kfifo *fifo;
      43.  
      44. /* size must be a power of 2 */
      45. BUG_ON(!is_power_of_2(size));
      46.  
      47. fifo = kmalloc(sizeof(struct kfifo), gfp_mask);
      48. if (!fifo)
      49. return ERR_PTR(-ENOMEM);
      50.  
      51. fifo->buffer = buffer;
      52. fifo->size = size;
      53. fifo->in = fifo->out = 0;
      54. fifo->lock = lock;
      55.  
      56. return fifo;
      57. }
      58. EXPORT_SYMBOL(kfifo_init);
      59.  
      60. /**
      61. * kfifo_alloc - allocates a new FIFO and its internal buffer
      62. * @size: the size of the internal buffer to be allocated.
      63. * @gfp_mask: get_free_pages mask, passed to kmalloc()
      64. * @lock: the lock to be used to protect the fifo buffer
      65. *
      66. * The size will be rounded-up to a power of 2.
      67. */
      68. struct kfifo *kfifo_alloc(unsigned int size, gfp_t gfp_mask, spinlock_t *lock)
      69. {
      70. unsigned char *buffer;
      71. struct kfifo *ret;
      72.  
      73. /*
      74. * round up to the next power of 2, since our 'let the indices
      75. * wrap' technique works only in this case.
      76. */
      77. if (!is_power_of_2(size)) {
      78. BUG_ON(size > 0x80000000);
      79. size = roundup_pow_of_two(size);
      80. }
      81.  
      82. buffer = kmalloc(size, gfp_mask);
      83. if (!buffer)
      84. return ERR_PTR(-ENOMEM);
      85.  
      86. ret = kfifo_init(buffer, size, gfp_mask, lock);
      87.  
      88. if (IS_ERR(ret))
      89. kfree(buffer);
      90.  
      91. return ret;
      92. }
      93. EXPORT_SYMBOL(kfifo_alloc);
      94.  
      95. /**
      96. * kfifo_free - frees the FIFO
      97. * @fifo: the fifo to be freed.
      98. */
      99. void kfifo_free(struct kfifo *fifo)
      100. {
      101. kfree(fifo->buffer);
      102. kfree(fifo);
      103. }
      104. EXPORT_SYMBOL(kfifo_free);
      105.  
      106. /**
      107. * __kfifo_put - puts some data into the FIFO, no locking version
      108. * @fifo: the fifo to be used.
      109. * @buffer: the data to be added.
      110. * @len: the length of the data to be added.
      111. *
      112. * This function copies at most @len bytes from the @buffer into
      113. * the FIFO depending on the free space, and returns the number of
      114. * bytes copied.
      115. *
      116. * Note that with only one concurrent reader and one concurrent
      117. * writer, you don't need extra locking to use these functions.
      118. */
      119. unsigned int __kfifo_put(struct kfifo *fifo,
      120. const unsigned char *buffer, unsigned int len)
      121. {
      122. unsigned int l;
      123.  
      124. len = min(len, fifo->size - fifo->in + fifo->out);
      125.  
      126. /*
      127. * Ensure that we sample the fifo->out index -before- we
      128. * start putting bytes into the kfifo.
      129. */
      130.  
      131. smp_mb();
      132.  
      133. /* first put the data starting from fifo->in to buffer end */
      134. l = min(len, fifo->size - (fifo->in & (fifo->size - 1)));
      135. memcpy(fifo->buffer + (fifo->in & (fifo->size - 1)), buffer, l);
      136.  
      137. /* then put the rest (if any) at the beginning of the buffer */
      138. memcpy(fifo->buffer, buffer + l, len - l);
      139.  
      140. /*
      141. * Ensure that we add the bytes to the kfifo -before-
      142. * we update the fifo->in index.
      143. */
      144.  
      145. smp_wmb();
      146.  
      147. fifo->in += len;
      148.  
      149. return len;
      150. }
      151. EXPORT_SYMBOL(__kfifo_put);
      152.  
      153. /**
      154. * __kfifo_get - gets some data from the FIFO, no locking version
      155. * @fifo: the fifo to be used.
      156. * @buffer: where the data must be copied.
      157. * @len: the size of the destination buffer.
      158. *
      159. * This function copies at most @len bytes from the FIFO into the
      160. * @buffer and returns the number of copied bytes.
      161. *
      162. * Note that with only one concurrent reader and one concurrent
      163. * writer, you don't need extra locking to use these functions.
      164. */
      165. unsigned int __kfifo_get(struct kfifo *fifo,
      166. unsigned char *buffer, unsigned int len)
      167. {
      168. unsigned int l;
      169.  
      170. len = min(len, fifo->in - fifo->out);
      171.  
      172. /*
      173. * Ensure that we sample the fifo->in index -before- we
      174. * start removing bytes from the kfifo.
      175. */
      176.  
      177. smp_rmb();
      178.  
      179. /* first get the data from fifo->out until the end of the buffer */
      180. l = min(len, fifo->size - (fifo->out & (fifo->size - 1)));
      181. memcpy(buffer, fifo->buffer + (fifo->out & (fifo->size - 1)), l);
      182.  
      183. /* then get the rest (if any) from the beginning of the buffer */
      184. memcpy(buffer + l, fifo->buffer, len - l);
      185.  
      186. /*
      187. * Ensure that we remove the bytes from the kfifo -before-
      188. * we update the fifo->out index.
      189. */
      190.  
      191. smp_mb();
      192.  
      193. fifo->out += len;
      194.  
      195. return len;
      196. }
      197. EXPORT_SYMBOL(__kfifo_get);

      為了更好的理解上面的源碼,這里順帶說一下此實現使用到的一些和本文主題無關的技巧:

      1. 使用與操作來求取環形緩沖區的下標,相比取余操作來求取下標的做法效率要高不少。使用與操作求取下標的前提是環形緩沖區的大小必須是 2 的 N 次方,換而言之就是說環形緩沖區的大小為一個僅有一個 1 的二進制數,那么 index & (size – 1) 則為求取的下標(這不難理解)
      2. 使用了 in 和 out 兩個索引且 in 和 out 是一直遞增的(此做法比較巧妙),這樣能夠避免一些復雜的條件判斷(某些實現下,in == out 時還無法區分緩沖區是空還是滿)

      這里,索引 in 和 out 被兩個線程訪問。in 和 out 指明了緩沖區中實際數據的邊界,也就是 in 和 out 同緩沖區數據存在訪問上的順序關系,由于未使用同步機制,那么保證順序關系就需要使用到 Memory barrier 了。索引 in 和 out 都分別只被一個線程修改,而被兩個線程讀取。__kfifo_put 先通過 in 和 out 來確定可以向緩沖區中寫入數據量的多少,這時,out 索引應該先被讀取后才能真正的將用戶 buffer 中的數據寫入緩沖區,因此這里使用到了 smp_mb(),對應的,__kfifo_get 也使用 smp_mb() 來確保修改 out 索引之前緩沖區中數據已經被成功讀取并寫入用戶 buffer 中了。對于 in 索引,在 __kfifo_put 中,通過 smp_wmb() 保證先向緩沖區寫入數據后才修改 in 索引,由于這里只需要保證寫入操作有序,故選用寫操作 barrier,在 __kfifo_get 中,通過 smp_rmb() 保證先讀取了 in 索引(這時候 in 索引用于確定緩沖區中實際存在多少可讀數據)才開始讀取緩沖區中數據(并寫入用戶 buffer 中),由于這里只需要保證讀取操作有序,故選用讀操作 barrier。

      到這里,Memory barrier 就介紹完畢了。

        本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發現有害或侵權內容,請點擊一鍵舉報。
        轉藏 分享 獻花(0

        0條評論

        發表

        請遵守用戶 評論公約

        類似文章 更多

        主站蜘蛛池模板: 在线看片无码永久免费视频| 久久久久99精品国产片| 人妻少妇精品无码专区动漫| 亚洲综合在线一区二区三区| 久久五月丁香合缴情网| 亚洲AV区无码字幕中文色| 亚洲国产精品久久久天堂麻豆宅男| 麻豆成人传媒一区二区| 国产A级作爱片无码| 国产鲁鲁视频在线观看| 久久婷婷五月综合尤物色国产| 亚洲人成网网址在线看| 两个人的WWW免费高清视频| 日本熟妇XXXX潮喷视频| 精品无码三级在线观看视频| 亚洲香蕉网久久综合影视| 日韩放荡少妇无码视频| 亚洲综合成人av在线| 无码国产精品一区二区免费式芒果 | 精品国精品自拍自在线| jizzjizz少妇亚洲水多| 国产AV无码专区亚洲AV潘金链| 97人人添人人澡人人澡人人澡 | 国产精品自在拍首页视频8| 亚洲AV永久无码精品一区二区国产| 免费观看欧美猛交视频黑人| 亚洲AV中文无码乱人伦在线视色| 国产片AV国语在线观看手机版| 亚洲春色在线视频| 亚洲国产日韩A在线亚洲| 在线视频中文字幕二区| 久久丫精品国产亚洲AV不卡| 老司机精品成人无码AV| 午夜射精日本三级| 夜夜躁狠狠躁日日躁| 亚洲WWW永久成人网站| 精品人妻二区中文字幕| 亚洲乱色熟女一区二区三区麻豆| 久久五十路丰满熟女中出| 老司机免费的精品视频| 国产高清自产拍av在线|