00. 问题背景
先看下下面的代码是否有问题:
public static JSONObject parseConfig(String configStr) {
JSONObject config = new JSONObject();
if (!StringUtils.isEmpty(configStr)) {
JSONObject rawConfig = JSONObject.parseObject(configStr);
rawConfig.keySet().parallelStream().forEach(key -> {
Object obj = rawConfig.get(key);
if (JSONObject.class.equals(obj.getClass())) {
JSONObject path1Config = new JSONObject();
((JSONObject)obj).keySet().stream().forEach(path2Key -> {
JSONObject path2Config = ((JSONObject)obj).getJSONObject(path2Key);
Arrays.stream(path2Key.split(",")).forEach(keyDetail -> {
path1Config.put(keyDetail, path2Config);
});
});
config.put(key, path1Config);
} else {
config.put(key, obj);
}
});
}
return config;
}
眼尖的读者可能已经看到,这里使用了并行流,但是JSONObject底层是基于HashMap,是线程不安全的,所以就有可能存在隐患。
所以,就有可能存在一种现象,从配置文件中读取配置项的时候,为了图快,使用了Stream#parallelStream
方法并发的put HashMap,然后在多线程的环境下,就会导致老线程put的值丢失的问题
01. 问题复现
下面,用一串简单的代码来复现下上述问题:
public class MapTest {
public static void main(String[] args) {
List<Key> list = ImmutableList.of(Key.of(1), Key.of(2), Key.of(3),
Key.of(4), Key.of(9),Key.of(10));
AtomicInteger index = new AtomicInteger(0);
for (int i = 0; i < 100; i++) {
CountDownLatch tag = new CountDownLatch(6);
Map<Key, Integer> map = new HashMap<>(4);
for (int j = 0; j < 6; j++) {
new Thread(() -> {
synchronized (Object.class) {
if (list.size() <= index.get()) {
tag.countDown();
return;
}
}
map.put(list.get(index.getAndAdd(1)), 1);
tag.countDown();
}).start();
}
tag.await();
map.forEach((k,v) -> System.out.println(k));
}
}
private static class Key {
private int hash;
public static Key of(int hash) {
Key key = new Key();
key.hash = hash;
return key;
}
@Override
public boolean equals(Object o) {
return false;
}
@Override
public int hashCode() {
return hash;
}
@Override
public String toString() {
return "Key{" +
"hash=" + hash +
'}';
}
}
}
上面代码的逻辑很简单,用并行流put到HashMap中,如果处理完成后,将结果打印出来。上述逻辑循环100次,发现有一次的结果如下:
Key{hash=1}
Key{hash=2}
Key{hash=3}
Key{hash=4}
发现竟然有一次循环中,多线程去put了6个值,但是HashMap中只有5个,这是为什么呢?
02. 问题原因
首先分析下每个Key的情况,根据HashMap的映射原理,再结合我们设置每个key的Hash值,我们可以发现,按照预期,在不扩容且CAP=4的情况下,正常的HashMap结构如下:
- Key1 -> Key9
- Key2 -> Key10
- Key3
- Key4
扩容的线程安全问题
当出现上面的异常情况的时候,我们可以判定,应该是在扩容情况下,老的值把新插入的值冲掉了,那么为什么会发生这种情况呢?我们先来看一下扩容的代码:
final Node<K,V>[] resize() {
//...
// 申请新的扩容数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
// 将新的空数组赋值给老数组
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
// 直接把老数组的值复制给新数组【问题点】
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// ...
else { // preserve order
// ...
newTab[j] = loHead;
// ...
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
从代码中我们可以看出来,当扩容的时候,新的空数组会直接复制给table,同时,老桶的值会直接赋值给新数组,这样在多线程下就会有问题,下面看一个例子:
- 线程1开始扩容,时间片用完,此时,其他线程抢占到时间片,把新的元素Key9和Key10放入了新的已经扩容的tab中。结构分别是:newTab[1]=Key9,newTab[2]=Key10
- 其他线程执行完毕,让出时间片,线程1继续执行扩容,当便利到oldTab[1]=Key1的时候,它会直接把newTab[1]=oldTab[1]=Key1,这里就可以看出,已经把newTab[1]=Key9给冲掉了
- 同理,newTab[2]=Key10也会被Key[2]冲掉
- 从最后的结果中我们可以看到,扩容过程中,其他线程插入的Key9和Key10两个值都被覆盖了。不过有一个点我们要注意,此时size仍然为6,但是Map中的元素却不是9对,这就是线程安全带来的问题
相同桶插入的线程安全问题
仍然是上面的例子,假如说Key1和Key9被两个线程同时插入,会触发什么问题呢?我重新跑了一下上面的例子,发下了会打印出如下代码:
Key{hash=9}
Key{hash=10}
Key{hash=2}
Key{hash=3}
Key{hash=4}
很显然Key1被Key9覆盖了,这个原因是什么呢?
这个和扩容是没有关系的,我们来看下put代码:
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
假如线程1刚执行完第三行,判断完成后,时间片用完,此时线程2进入执行,将tab[1]=Key9插入完成后结束,此时线程1恢复执行,那么线程1再执行tab[1]=Key1重新插入,就会覆盖掉线程2的值。看一下例子:
- 线程1执行tab[1]=Key1,此时时间片用完
- 线程2执行tab[1]=Key9的插入,且执行完成:
- 线程1恢复时间片,继续执行,原来的元素被覆盖掉
03. 解决方案
- 采用线程安全的Map,如ConcurrentHashMap
- 尽量不要使用parallelStream,因为它的行为是非常难以控制的 (《Effective Java》)
- 不要只使用流的foreach能力,要结合filter,collect等一起使用才会提高效率,如下:
Map<Key, Integer> collect = list.parallelStream()
.collect(Collectors.toMap(e -> e, e -> 1));
04. 事后思考
很多人都知道,在并发情况下不能使用HashMap,而要使用ConcurrentHashMap,但是如果问为什么,可能刷过八股文的人会说,因为HashMap在并发情况扩容的情况下可能会出现死循环的问题。如果对HashMap不了解的人,可能会被这个回答所懵到,事实上,并发扩容所导致的死循环问题,只存在于1.7,而且在1.8的时候已经被修复了。那么,除了并发死循环,HashMap在并发调用下究竟会出现哪些线程安全问题呢?正像文中所说的
- 扩容导致的put失效问题,同时,元素的个数size和实际元素的个数不符合
- 如果线程1在在put元素之前时间片用完被切换,线程2刚好put了同一个桶中的元素,然后切换到线程1,那么此时线程1put的元素就会覆盖掉线程2刚才put的元素
除了这两种情况,一定还有其他情况,只不过笔者水平和时间有限,暂时就说这么多。
其实,再进一步,我们不妨思考一下,ConcurrentHashMap是如何解决上面的这些线程安全问题呢?