這篇文章我們開始分析linkedhashmap的源碼,linkedhashmap繼承了hashmap,也就是說linkedhashmap是在hashmap的基礎上擴展而來的,因此在看linkedhashmap源碼之前,讀者有必要先去了解hashmap的源碼,可以查看我上一篇文章的介紹《java集合系列[3]----hashmap源碼分析》。只要深入理解了hashmap的實現原理,回過頭來再去看linkedhashmap,hashset和linkedhashset的源碼那都是非常簡單的。因此,讀者們好好耐下性子來研究研究hashmap源碼吧,這可是買一送三的好生意啊。在前面分析hashmap源碼時,我采用以問題為導向對源碼進行分析,這樣使自己不會像無頭蒼蠅一樣亂分析一通,讀者也能夠針對問題更加深入的理解。本篇我決定還是采用這樣的方式對linkedhashmap進行分析。
1. linkedhashmap內部采用了什么樣的結構?
可以看到,由于linkedhashmap是繼承自hashmap的,所以linkedhashmap內部也還是一個哈希表,只不過linkedhashmap重新寫了一個entry,在原來hashmap的entry上添加了兩個成員變量,分別是前繼結點引用和后繼結點引用。這樣就將所有的結點鏈接在了一起,構成了一個雙向鏈表,在獲取元素的時候就直接遍歷這個雙向鏈表就行了。我們看看linkedhashmap實現的entry是什么樣子的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
|
private static class entry<k,v> extends hashmap.entry<k,v> { //當前結點在雙向鏈表中的前繼結點的引用 entry<k,v> before; //當前結點在雙向鏈表中的后繼結點的引用 entry<k,v> after; entry( int hash, k key, v value, hashmap.entry<k,v> next) { super (hash, key, value, next); } //從雙向鏈表中移除該結點 private void remove() { before.after = after; after.before = before; } //將當前結點插入到雙向鏈表中一個已存在的結點前面 private void addbefore(entry<k,v> existingentry) { //當前結點的下一個結點的引用指向給定結點 after = existingentry; //當前結點的上一個結點的引用指向給定結點的上一個結點 before = existingentry.before; //給定結點的上一個結點的下一個結點的引用指向當前結點 before.after = this ; //給定結點的上一個結點的引用指向當前結點 after.before = this ; } //按訪問順序排序時, 記錄每次獲取的操作 void recordaccess(hashmap<k,v> m) { linkedhashmap<k,v> lm = (linkedhashmap<k,v>)m; //如果是按訪問順序排序 if (lm.accessorder) { lm.modcount++; //先將自己從雙向鏈表中移除 remove(); //將自己放到雙向鏈表尾部 addbefore(lm.header); } } void recordremoval(hashmap<k,v> m) { remove(); } } |
2. linkedhashmap是怎樣實現按插入順序排序的?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
//父類put方法中會調用的該方法 void addentry( int hash, k key, v value, int bucketindex) { //調用父類的addentry方法 super .addentry(hash, key, value, bucketindex); //下面操作是方便lru緩存的實現, 如果緩存容量不足, 就移除最老的元素 entry<k,v> eldest = header.after; if (removeeldestentry(eldest)) { removeentryforkey(eldest.key); } } //父類的addentry方法中會調用該方法 void createentry( int hash, k key, v value, int bucketindex) { //先獲取hashmap的entry hashmap.entry<k,v> old = table[bucketindex]; //包裝成linkedhashmap自身的entry entry<k,v> e = new entry<>(hash, key, value, old); table[bucketindex] = e; //將當前結點插入到雙向鏈表的尾部 e.addbefore(header); size++; } |
linkedhashmap重寫了它的父類hashmap的addentry和createentry方法。當要插入一個鍵值對的時候,首先會調用它的父類hashmap的put方法。在put方法中會去檢查一下哈希表中是不是存在了對應的key,如果存在了就直接替換它的value就行了,如果不存在就調用addentry方法去新建一個entry。注意,這時候就調用到了linkedhashmap自己的addentry方法。我們看到上面的代碼,這個addentry方法除了回調父類的addentry方法之外還會調用removeeldestentry去移除最老的元素,這步操作主要是為了實現lru算法,下面會講到。我們看到linkedhashmap還重寫了createentry方法,當要新建一個entry的時候最終會調用這個方法,createentry方法在每次將entry放入到哈希表之后,就會調用addbefore方法將當前結點插入到雙向鏈表的尾部。這樣雙向鏈表就記錄了每次插入的結點的順序,獲取元素的時候只要遍歷這個雙向鏈表就行了,下圖演示了每次調用addbefore的操作。由于是雙向鏈表,所以將當前結點插入到頭結點之前其實就是將當前結點插入到雙向鏈表的尾部。
3. 怎樣利用linkedhashmap實現lru緩存?
我們知道緩存的實現依賴于計算機的內存,而內存資源是相當有限的,不可能無限制的存放元素,所以我們需要在容量不夠的時候適當的刪除一些元素,那么到底刪除哪個元素好呢?lru算法的思想是,如果一個數據最近被訪問過,那么將來被訪問的幾率也更高。所以我們可以刪除那些不經常被訪問的數據。接下來我們看看linkedhashmap內部是怎樣實現lru機制的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
|
public class linkedhashmap<k,v> extends hashmap<k,v> implements map<k,v> { //雙向鏈表頭結點 private transient entry<k,v> header; //是否按訪問順序排序 private final boolean accessorder; ... public linkedhashmap( int initialcapacity, float loadfactor, boolean accessorder) { super (initialcapacity, loadfactor); this .accessorder = accessorder; } //根據key獲取value值 public v get(object key) { //調用父類方法獲取key對應的entry entry<k,v> e = (entry<k,v>)getentry(key); if (e == null ) { return null ; } //如果是按訪問順序排序的話, 會將每次使用后的結點放到雙向鏈表的尾部 e.recordaccess( this ); return e.value; } private static class entry<k,v> extends hashmap.entry<k,v> { ... //將當前結點插入到雙向鏈表中一個已存在的結點前面 private void addbefore(entry<k,v> existingentry) { //當前結點的下一個結點的引用指向給定結點 after = existingentry; //當前結點的上一個結點的引用指向給定結點的上一個結點 before = existingentry.before; //給定結點的上一個結點的下一個結點的引用指向當前結點 before.after = this ; //給定結點的上一個結點的引用指向當前結點 after.before = this ; } //按訪問順序排序時, 記錄每次獲取的操作 void recordaccess(hashmap<k,v> m) { linkedhashmap<k,v> lm = (linkedhashmap<k,v>)m; //如果是按訪問順序排序 if (lm.accessorder) { lm.modcount++; //先將自己從雙向鏈表中移除 remove(); //將自己放到雙向鏈表尾部 addbefore(lm.header); } } ... } //父類put方法中會調用的該方法 void addentry( int hash, k key, v value, int bucketindex) { //調用父類的addentry方法 super .addentry(hash, key, value, bucketindex); //下面操作是方便lru緩存的實現, 如果緩存容量不足, 就移除最老的元素 entry<k,v> eldest = header.after; if (removeeldestentry(eldest)) { removeentryforkey(eldest.key); } } //是否刪除最老的元素, 該方法設計成要被子類覆蓋 protected boolean removeeldestentry(map.entry<k,v> eldest) { return false ; } } |
為了更加直觀,上面貼出的代碼中我將一些無關的代碼省略了,我們可以看到linkedhashmap有一個成員變量accessorder,該成員變量記錄了是否需要按訪問順序排序,它提供了一個構造器可以自己指定accessorder的值。每次調用get方法獲取元素式都會調用e.recordaccess(this),該方法會將當前結點移到雙向鏈表的尾部?,F在我們知道了如果accessorder為true那么每次get元素后都會把這個元素挪到雙向鏈表的尾部。這一步的目的是區別出最常使用的元素和不常使用的元素,經常使用的元素放到尾部,不常使用的元素放到頭部。我們再回到上面的代碼中看到每次調用addentry方法時都會判斷是否需要刪除最老的元素。判斷的邏輯是removeeldestentry實現的,該方法被設計成由子類進行覆蓋并重寫里面的邏輯。注意,由于最近被訪問的結點都被挪動到雙向鏈表的尾部,所以這里是從雙向鏈表頭部取出最老的結點進行刪除。下面例子實現了一個簡單的lru緩存。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
public class lrumap<k, v> extends linkedhashmap<k, v> { private int capacity; lrumap( int capacity) { //調用父類構造器, 設置為按訪問順序排序 super (capacity, 1f, true ); this .capacity = capacity; } @override public boolean removeeldestentry(map.entry<k, v> eldest) { //當鍵值對大于等于哈希表容量時 return this .size() >= capacity; } public static void main(string[] args) { lrumap<integer, string> map = new lrumap<integer, string>( 4 ); map.put( 1 , "a" ); map.put( 2 , "b" ); map.put( 3 , "c" ); system.out.println( "原始集合:" + map); string s = map.get( 2 ); system.out.println( "獲取元素:" + map); map.put( 4 , "d" ); system.out.println( "插入之后:" + map); } } |
結果如下:
注:以上全部分析基于jdk1.7,不同版本間會有差異,讀者需要注意。
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持服務器之家。
原文鏈接:http://www.cnblogs.com/liuyun1995/p/8330700.html