當前位置:首頁 » 操作系統 » hashmap實現源碼

hashmap實現源碼

發布時間: 2022-05-02 17:34:11

A. hashmap和concurrenthashmap的區別,hashmap的底層源碼

你好。 有並發訪問的時候用ConcurrentHashMap,效率比用鎖的HashMap好 功能上可以,但是畢竟ConcurrentHashMap這種數據結構要復雜些,如果能保證只在單一線程下讀寫,不會發生並發的讀寫,那麼就可以試用HashMap。ConcurrentHashMap讀不加鎖,寫...

B. concurrenthashmap線程安全嗎

ConcurrentHashMap 是 java 並發包中提供的一個線程安全且高效的 HashMap 實現,以彌補 HashMap 不適合在並發環境中操作使用的不足,本文就來分析下 ConcurrentHashMap 的實現原理,並對其實現原理進行分析!

一、摘要
在之前的集合文章中,我們了解到 HashMap 在多線程環境下操作可能會導致程序死循環的線上故障!

既然在多線程環境下不能使用 HashMap,那如果我們想在多線程環境下操作 map,該怎麼操作呢?

想必閱讀過小編之前寫的《HashMap 在多線程環境下操作可能會導致程序死循環》一文的朋友們一定知道,其中有一個解決辦法就是使用 java 並發包下的 ConcurrentHashMap 類!

今天呢,我們就一起來聊聊 ConcurrentHashMap 這個類!

二、簡介
眾所周知,在 Java 中,HashMap 是非線程安全的,如果想在多線程下安全的操作 map,主要有以下解決方法:

第一種方法,使用Hashtable線程安全類;

第二種方法,使用Collections.synchronizedMap方法,對方法進行加同步鎖;

第三種方法,使用並發包中的ConcurrentHashMap類;

在之前的文章中,關於 Hashtable 類,我們也有所介紹,Hashtable 是一個線程安全的類,Hashtable 幾乎所有的添加、刪除、查詢方法都加了synchronized同步鎖!

相當於給整個哈希表加了一把大鎖,多線程訪問時候,只要有一個線程訪問或操作該對象,那其他線程只能阻塞等待需要的鎖被釋放,在競爭激烈的多線程場景中性能就會非常差,所以 Hashtable 不推薦使用!


再來看看第二種方法,使用Collections.synchronizedMap方法,我們打開 JDK 源碼,部分內容如下:


可以很清晰的看到,如果傳入的是 HashMap 對象,其實也是對 HashMap 做的方法做了一層包裝,裡面使用對象鎖來保證多線程場景下,操作安全,本質也是對 HashMap 進行全表鎖!

使用Collections.synchronizedMap方法,在競爭激烈的多線程環境下性能依然也非常差,所以不推薦使用!

上面 2 種方法,由於都是對方法進行全表鎖,所以在多線程環境下容易造成性能差的問題,因為** hashMap 是數組 + 鏈表的數據結構,如果我們把數組進行分割多段,對每一段分別設計一把同步鎖,這樣在多線程訪問不同段的數據時,就不會存在鎖競爭了,這樣是不是可以有效的提高性能?**

再來看看第三種方法,使用並發包中的ConcurrentHashMap類!

ConcurrentHashMap 類所採用的正是分段鎖的思想,將 HashMap 進行切割,把 HashMap 中的哈希數組切分成小數組,每個小數組有 n 個 HashEntry 組成,其中小數組繼承自ReentrantLock(可重入鎖),這個小數組名叫Segment, 如下圖:



當然,JDK1.7 和 JDK1.8 對 ConcurrentHashMap 的實現有很大的不同!

JDK1.8 對 HashMap 做了改造,當沖突鏈表長度大於 8 時,會將鏈表轉變成紅黑樹結構,上圖是 ConcurrentHashMap 的整體結構,參考 JDK1.7!

我們再來看看 JDK1.8 中 ConcurrentHashMap 的整體結構,內容如下:


JDK1.8 中 ConcurrentHashMap 類取消了 Segment 分段鎖,採用 CAS + synchronized 來保證並發安全,數據結構跟 jdk1.8 中 HashMap 結構類似,都是數組 + 鏈表(當鏈表長度大於 8 時,鏈表結構轉為紅黑二叉樹)結構。

ConcurrentHashMap 中 synchronized 只鎖定當前鏈表或紅黑二叉樹的首節點,只要節點 hash 不沖突,就不會產生並發,相比 JDK1.7 的 ConcurrentHashMap 效率又提升了 N 倍!

說了這么多,我們再一起來看看 ConcurrentHashMap 的源碼實現。

三、JDK1.7 中的 ConcurrentHashMap
JDK 1.7 的 ConcurrentHashMap 採用了非常精妙的分段鎖策略,打開源碼,可以看到 ConcurrentHashMap 的主存是一個 Segment 數組。


我們再來看看 Segment 這個類,在 ConcurrentHashMap 中它是一個靜態內部類,內部結構跟 HashMap 差不多,源碼如下:


存放元素的 HashEntry,也是一個靜態內部類,源碼如下:


HashEntry和HashMap中的 Entry非常類似,唯一的區別就是其中的核心數據如value ,以及next都使用了volatile關鍵字修飾,保證了多線程環境下數據獲取時的可見性!

從類的定義上可以看到,Segment 這個靜態內部類繼承了ReentrantLock類,ReentrantLock是一個可重入鎖,如果了解過多線程的朋友們,對它一定不陌生。

ReentrantLock和synchronized都可以實現對線程進行加鎖,不同點是:ReentrantLock可以指定鎖是公平鎖還是非公平鎖,操作上也更加靈活,關於此類,具體在以後的多線程篇幅中會單獨介紹。

因為ConcurrentHashMap的大體存儲結構和HashMap類似,所以就不對每個方法進行單獨分析介紹了,關於HashMap的分析,有興趣的朋友可以參閱小編之前寫的《深入分析 HashMap》一文。

ConcurrentHashMap 在存儲方面是一個 Segment 數組,一個 Segment 就是一個子哈希表,Segment 里維護了一個 HashEntry 數組,其中 Segment 繼承自 ReentrantLock,並發環境下,對於不同的 Segment 數據進行操作是不用考慮鎖競爭的,因此不會像 Hashtable 那樣不管是添加、刪除、查詢操作都需要同步處理。

理論上 ConcurrentHashMap 支持 concurrentLevel(通過 Segment 數組長度計算得來) 個線程並發操作,每當一個線程獨佔一把鎖訪問 Segment 時,不會影響到其他的 Segment 操作,效率大大提升!

上面介紹完了對象屬性,我們繼續來看看 ConcurrentHashMap 的構造方法,源碼如下:


this調用對應的構造方法,源碼如下:


從源碼上可以看出,ConcurrentHashMap 初始化方法有三個參數,initialCapacity(初始化容量)為 16、loadFactor(負載因子)為 0.75、concurrentLevel(並發等級)為 16,如果不指定則會使用默認值。

其中,值得注意的是 concurrentLevel 這個參數,雖然 Segment 數組大小 ssize 是由 concurrentLevel 來決定的,但是卻不一定等於 concurrentLevel,ssize 通過位移動運算,一定是大於或者等於 concurrentLevel 的最小的 2 的次冪!

通過計算可以看出,按默認的 initialCapacity 初始容量為 16,concurrentLevel 並發等級為 16,理論上就允許 16 個線程並發執行,並且每一個線程獨佔一把鎖訪問 Segment,不影響其它的 Segment 操作!

從之前的文章中,我們了解到 HashMap 在多線程環境下操作可能會導致程序死循環,仔細想想你會發現,造成這個問題無非是 put 和擴容階段發生的!

那麼這樣我們就可以從 put 方法下手了,來看看 ConcurrentHashMap 是怎麼操作的?

3.1、put 操作
ConcurrentHashMap 的 put 方法,源碼如下:


從源碼可以看出,這部分的 put 操作主要分兩步:

定位 Segment 並確保定位的 Segment 已初始化;

調用 Segment 的 put 方法;

真正插入元素的 put 方法,源碼如下:



從源碼可以看出,真正的 put 操作主要分以下幾步:

第一步,嘗試獲取對象鎖,如果獲取到返回 true,否則執行scanAndLockForPut方法,這個方法也是嘗試獲取對象鎖;

第二步,獲取到鎖之後,類似 hashMap 的 put 方法,通過 key 計算所在 HashEntry 數組的下標;

第三步,獲取到數組下標之後遍歷鏈表內容,通過 key 和 hash 值判斷是否 key 已存在,如果已經存在,通過標識符判斷是否覆蓋,默認覆蓋;

第四步,如果不存在,採用頭插法插入到 HashEntry 對象中;

第五步,最後操作完整之後,釋放對象鎖;

我們再來看看,上面提到的scanAndLockForPut這個方法,源碼如下:


scanAndLockForPut這個方法,操作也是分以下幾步:

當前線程嘗試去獲得鎖,查找 key 是否已經存在,如果不存在,就創建一個 HashEntry 對象;

如果重試次數大於最大次數,就調用lock()方法獲取對象鎖,如果依然沒有獲取到,當前線程就阻塞,直到獲取之後退出循環;

在這個過程中,key 可能被別的線程給插入,所以在第 5 步中,如果 HashEntry 存儲內容發生變化,重置重試次數;

通過scanAndLockForPut()方法,當前線程就可以在即使獲取不到segment鎖的情況下,完成需要添加節點的實例化工作,當獲取鎖後,就可以直接將該節點插入鏈表即可。

這個方法還實現了類似於自旋鎖的功能,循環式的判斷對象鎖是否能夠被成功獲取,直到獲取到鎖才會退出循環,防止執行 put 操作的線程頻繁阻塞,這些優化都提升了 put 操作的性能。

3.2、get 操作
get 方法就比較簡單了,因為不涉及增、刪、改操作,所以不存在並發故障問題,源碼如下:



由於 HashEntry 涉及到的共享變數都使用 volatile 修飾,volatile 可以保證內存可見性,所以不會讀取到過期數據。

3.3、remove 操作
remove 操作和 put 方法差不多,都需要獲取對象鎖才能操作,通過 key 找到元素所在的 Segment 對象然後移除,源碼如下:


與 get 方法類似,先獲取 Segment 數組所在的 Segment 對象,然後通過 Segment 對象去移除元素,源碼如下:


先獲取對象鎖,如果獲取到之後執行移除操作,之後的操作類似 hashMap 的移除方法,步驟如下:

先獲取對象鎖;

計算 key 的 hash 值在 HashEntry[]中的角標;

根據 index 角標獲取 HashEntry 對象;

循環遍歷 HashEntry 對象,HashEntry 為單向鏈表結構;

通過 key 和 hash 判斷 key 是否存在,如果存在,就移除元素,並將需要移除的元素節點的下一個,向上移;

最後就是釋放對象鎖,以便其他線程使用;

四、JDK1.8 中的 ConcurrentHashMap
雖然 JDK1.7 中的 ConcurrentHashMap 解決了 HashMap 並發的安全性,但是當沖突的鏈表過長時,在查詢遍歷的時候依然很慢!

在 JDK1.8 中,HashMap 引入了紅黑二叉樹設計,當沖突的鏈表長度大於 8 時,會將鏈表轉化成紅黑二叉樹結構,紅黑二叉樹又被稱為平衡二叉樹,在查詢效率方面,又大大的提高了不少。


因為 HashMap 並不支持在多線程環境下使用, JDK1.8 中的 ConcurrentHashMap 和往期 JDK 中的 ConcurrentHashMa 一樣支持並發操作,整體結構和 JDK1.8 中的 HashMap 類似,相比 JDK1.7 中的 ConcurrentHashMap, 它拋棄了原有的 Segment 分段鎖實現,採用了 CAS + synchronized 來保證並發的安全性。

JDK1.8 中的 ConcurrentHashMap 對節點Node類中的共享變數,和 JDK1.7 一樣,使用volatile關鍵字,保證多線程操作時,變數的可見行!


其他的細節,與 JDK1.8 中的 HashMap 類似,我們來具體看看 put 方法!

4.1、put 操作
打開 JDK1.8 中的 ConcurrentHashMap 中的 put 方法,源碼如下:



當進行 put 操作時,流程大概可以分如下幾個步驟:

首先會判斷 key、value 是否為空,如果為空就拋異常!

接著會判斷容器數組是否為空,如果為空就初始化數組;

進一步判斷,要插入的元素f,在當前數組下標是否第一次插入,如果是就通過 CAS 方式插入;

在接著判斷f.hash == -1是否成立,如果成立,說明當前f是ForwardingNode節點,表示有其它線程正在擴容,則一起進行擴容操作;

其他的情況,就是把新的Node節點按鏈表或紅黑樹的方式插入到合適的位置;

節點插入完成之後,接著判斷鏈表長度是否超過8,如果超過8個,就將鏈表轉化為紅黑樹結構;

最後,插入完成之後,進行擴容判斷;

put 操作大致的流程,就是這樣的,可以看的出,復雜程度比 JDK1.7 上了一個台階。

4.1.1、initTable 初始化數組
我們再來看看源碼中的第 3 步 initTable()方法,如果數組為空就初始化數組,源碼如下:


sizeCtl 是一個對象屬性,使用了 volatile 關鍵字修飾保證並發的可見性,默認為 0,當第一次執行 put 操作時,通過Unsafe.compareAndSwapInt()方法,俗稱CAS,將 sizeCtl修改為 -1,有且只有一個線程能夠修改成功,接著執行 table 初始化任務。

如果別的線程發現sizeCtl<0,意味著有另外的線程執行 CAS 操作成功,當前線程通過執行Thread.yield()讓出 CPU 時間片等待 table 初始化完成。

4.1.2、helpTransfer 幫組擴容
我們繼續來看看 put 方法中第 5 步helpTransfer()方法,如果f.hash == -1成立,說明當前f是ForwardingNode節點,意味有其它線程正在擴容,則一起進行擴容操作,源碼如下:



這個過程,操作步驟如下:

第 1 步,對 table、node 節點、node 節點的 nextTable,進行數據校驗;

第 2 步,根據數組的 length 得到一個標識符號;

第 3 步,進一步校驗 nextTab、tab、sizeCtl 值,如果 nextTab 沒有被並發修改並且 tab 也沒有被並發修改,同時 sizeCtl < 0,說明還在擴容;

第 4 步,對 sizeCtl 參數值進行分析判斷,如果不滿足任何一個判斷,將sizeCtl + 1, 增加了一個線程幫助其擴容;

4.1.3、addCount 擴容判斷
我們再來看看源碼中的第 9 步 addCount()方法,插入完成之後,擴容判斷,源碼如下:



這個過程,操作步驟如下:

第 1 步,利用 CAS 將方法更新 baseCount 的值

第 2 步,檢查是否需要擴容,默認 check = 1,需要檢查;

第 3 步,如果滿足擴容條件,判斷當前是否正在擴容,如果是正在擴容就一起擴容;

第 4 步,如果不在擴容,將 sizeCtl 更新為負數,並進行擴容處理;

put 的流程基本分析完了,可以從中發現,裡面大量的使用了CAS方法,CAS 表示比較與替換,裡面有 3 個參數,分別是目標內存地址、舊值、新值,每次判斷的時候,會將舊值與目標內存地址中的值進行比較,如果相等,就將新值更新到內存地址里,如果不相等,就繼續循環,直到操作成功為止!

雖然使用的了CAS這種樂觀鎖方法,但是裡面的細節設計的很復雜,閱讀比較費神,有興趣的朋友們可以自己研究一下。

4.2、get 操作
get 方法操作就比較簡單了,因為不涉及並發操作,直接查詢就可以了,源碼如下:


從源碼中可以看出,步驟如下:

第 1 步,判斷數組是否為空,通過 key 定位到數組下標是否為空;

第 2 步,判斷 node 節點第一個元素是不是要找到,如果是直接返回;

第 3 步,如果是紅黑樹結構,就從紅黑樹裡面查詢;

第 4 步,如果是鏈表結構,循環遍歷判斷;

4.3、reomve 操作
reomve 方法操作和 put 類似,只是方向是反的,源碼如下:


replaceNode 方法,源碼如下:



從源碼中可以看出,步驟如下:

第 1 步,循環遍歷數組,接著校驗參數;

第 2 步,判斷是否有別的線程正在擴容,如果是一起擴容;

第 3 步,用 synchronized 同步鎖,保證並發時元素移除安全;

第 4 步,因為 check= -1,所以不會進行擴容操作,利用 CAS 操作修改 baseCount 值;

五、總結
雖然 HashMap 在多線程環境下操作不安全,但是在 java.util.concurrent 包下,java 為我們提供了 ConcurrentHashMap 類,保證在多線程下 HashMap 操作安全!

在 JDK1.7 中,ConcurrentHashMap 採用了分段鎖策略,將一個 HashMap 切割成 Segment 數組,其中 Segment 可以看成一個 HashMap, 不同點是 Segment 繼承自 ReentrantLock,在操作的時候給 Segment 賦予了一個對象鎖,從而保證多線程環境下並發操作安全。

但是 JDK1.7 中,HashMap 容易因為沖突鏈表過長,造成查詢效率低,所以在 JDK1.8 中,HashMap 引入了紅黑樹特性,當沖突鏈表長度大於 8 時,會將鏈表轉化成紅黑二叉樹結構。

在 JDK1.8 中,與此對應的 ConcurrentHashMap 也是採用了與 HashMap 類似的存儲結構,但是 JDK1.8 中 ConcurrentHashMap 並沒有採用分段鎖的策略,而是在元素的節點上採用 CAS + synchronized 操作來保證並發的安全性,源碼的實現比 JDK1.7 要復雜的多。

C. java查看hashmap的源碼發現並沒有向entrySet中裝入元素,而去可以如下遍歷。

幫助文檔上說:返回此映射所包含的映射關系的
collection
視圖。在返回的集合中,每個元素都是一個
Map.Entry。
entrySet僅僅是一個視圖而已,沒有具體的數據,其實還是從HashMap中獲取數據的。具體可以看entry和entrySet的源代碼就知道數據其實還是來自於table。

D. 通過實現原理及源代碼分析HashMap該怎麼用

HashMap
,都知道哪裡要用
HashMap
,知道
Hashtable

HashMap
之間的區別
,那麼
為何這道面試題如此特殊呢?是因為這道題考察的深度很深。
這題經常出現在高級或中高級
面試中。投資銀行更喜歡問這個問題,甚至會要求你實現
HashMap
來考察你的編程能力。
ConcurrentHashMap
和其它同步集合的引入讓這道題變得更加復雜。讓我們開始探索的
旅程吧!

E. 為什麼HashMap要自己實現writeObject和readObject方法

HashMap怎麼實現序列化的

前幾天在看HashMap的源代碼,看到了HashMap實現了Serializable介面(這個介面就是使得對象實例可以被保存成文件,在後續使用的時候可以直接從文件中把這個對象實例給讀出來,對象中的數據還在),但是又發現了transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;,table是HashMap用來存儲數據的數組,table變數前面加上了transient關鍵字,這個關鍵字的意思是在序列化的時候不用管這個變數。當時自己就在想,HashMap實現序列化不就是為了可以把table中的數據寫到文件裡面嗎?為什麼又要加上這個關鍵字?剛開始一直想不通為什麼會這樣,然後就看HashMap中的一些和table有關的方法,就發現了writeObject(ObjectOutputStream)和readObject(ObjectInputStream)這兩個方法,然後就網路了這兩個方法,看到有人說在實現序列化的時候,如果該類實現了writeObject和readObject這兩個方法那麼就會調用該類的實現,如果沒有的話就會使用defaultWriteObject()和defaultReadObject(),而HashMap就是自己實現了writeObject和readObject方法,自己對table做了處理。

為什麼HashMap要自己對table做處理呢

大家都知道HashMap存儲是根據Key的hash值來計算出,鍵值對應該放在數組的哪個位置,但是在不同的JVM中,得到的hash值不一定相同,意思就是在windows下的虛擬機將key=『1』計算出來的hash值可能是存在table的第0個位置的,但是在Linux環境下的虛擬機計算出來的key=『1』的hash值可能是放在table的第1個位置,當我們去讀table中的值的時候未必能拿到key=』1』的值。

HashMap如何做的處理

在反序列化的時候,readObject中調用了一個叫做putForCreate的方法,這個方法中又調用了indexFor這個方法重新計算了key的hash值,這樣就可以把key和value可以正確放到數組中。

F. HashMap是什麼東西

HashMap,中文名哈希映射,HashMap是一個用於存儲Key-Value鍵值對的集合,每一個鍵值對也叫做Entry。這些個鍵值對(Entry)分散存儲在一個數組當中,這個數組就是HashMap的主幹。HashMap數組每一個元素的初始值都是Null。

HashMap是基於哈希表的 Map 介面的實現。此實現提供所有可選的映射操作,並允許使用 null 值和 null 鍵。(除了非同步和允許使用 null 之外,HashMap 類與 Hashtable 大致相同。)此類不保證映射的順序,特別是它不保證該順序恆久不變。

(6)hashmap實現源碼擴展閱讀:

因為HashMap的長度是有限的,當插入的Entry越來越多時,再完美的Hash函數也難免會出現index沖突的情況。

HashMap數組的每一個元素不止是一個Entry對象,也是一個鏈表的頭節點。每一個Entry對象通過Next指針指向它的下一個Entry節點。當新來的Entry映射到沖突的數組位置時,只需要插入到對應的鏈表即可。

G. hashmap底層實現原理

hashmap底層實現原理是SortedMap介面能夠把它保存的記錄根據鍵排序,默認是按鍵值的升序排序,也可以指定排序的比較器,當用Iterator遍歷TreeMap時,得到的記錄是排過序的。

如果使用排序的映射,建議使用TreeMap。在使用TreeMap時,key必須實現Comparable介面或者在構造TreeMap傳入自定義的Comparator,否則會在運行時拋出java.lang.ClassCastException類型的異常。

Hashtable是遺留類,很多映射的常用功能與HashMap類似,不同的是它承自Dictionary類,並且是線程安全的,任一時間只有一個線程能寫Hashtable

從結構實現來講,HashMap是:數組+鏈表+紅黑樹(JDK1.8增加了紅黑樹部分)實現的。

(7)hashmap實現源碼擴展閱讀

從源碼可知,HashMap類中有一個非常重要的欄位,就是 Node[] table,即哈希桶數組。Node是HashMap的一個內部類,實現了Map.Entry介面,本質是就是一個映射(鍵值對),除了K,V,還包含hash和next。

HashMap就是使用哈希表來存儲的。哈希表為解決沖突,採用鏈地址法來解決問題,鏈地址法,簡單來說,就是數組加鏈表的結合。在每個數組元素上都一個鏈表結構,當數據被Hash後,得到數組下標,把數據放在對應下標元素的鏈表上。

如果哈希桶數組很大,即使較差的Hash演算法也會比較分散,如果哈希桶數組數組很小,即使好的Hash演算法也會出現較多碰撞,所以就需要在空間成本和時間成本之間權衡,其實就是在根據實際情況確定哈希桶數組的大小,並在此基礎上設計好的hash演算法減少Hash碰撞。

H. 同步的數據結構,例如concurrenthashmap的源碼理解以及內部實現原理,為什麼他是同

nized是針對整張Hash表的,即每次鎖住整張表讓線程獨占,ConcurrentHashMap允許多個修改操作並發進行,其關鍵在於使用了鎖分離技術。它使用了多個鎖來控制對hash表的不同部分進行的修改。ConcurrentHashMap內部使用段(Segment)來表示這些不同的部分,每個段其實就是一個小的hash table,它們有自己的鎖。只要多個修改操作發生在不同的段上,它們就可以並發進行。
有些方法需要跨段,比如size()和containsValue(),它們可能需要鎖定整個表而而不僅僅是某個段,這需要按順序鎖定所有段,操作完畢後,又按順序釋放所有段的鎖。這里「按順序」是很重要的,否則極有可能出現死鎖,在ConcurrentHashMap內部,段數組

I. stl中的hashmap怎麼實現

你可以參考STL 源碼解析 中對於map 和hashmap 的實現 因為是C語言的開發,不能使用標准庫的map和hashmap,原以為這個代碼應該很多的。

J. 怎麼看hashmap和hashtable的源碼

HashMap是Hashtable的輕量級實現(非線程安全的實現),他們都完成了Map介面,主要區別在於HashMap准許空(Null)鍵值(Key),由於非線程安全,效率上可能高於Hashtable。我回答的通俗易懂把!!!

熱點內容
標簽匹配演算法 發布:2024-10-06 06:37:23 瀏覽:221
雲頂之弈腳本 發布:2024-10-06 06:37:23 瀏覽:764
jsp與javaweb 發布:2024-10-06 06:32:13 瀏覽:294
c語言修飾符 發布:2024-10-06 06:27:09 瀏覽:276
有解壓密碼的壓縮包 發布:2024-10-06 06:18:46 瀏覽:72
分鏡頭腳本模板廣告 發布:2024-10-06 06:18:44 瀏覽:14
大眾邁騰車輛密碼在哪裡 發布:2024-10-06 06:05:51 瀏覽:673
access資料庫亂碼 發布:2024-10-06 06:05:18 瀏覽:322
光遇安卓音韻季有什麼 發布:2024-10-06 05:06:51 瀏覽:76
apk腳本破解 發布:2024-10-06 04:33:23 瀏覽:52