java – ConcurrentHashMap中String intern方法的重复数据删除

我看了一篇来自 JavaDays的代码,作者说这种方法有概率非常有效,可以将类似String的字符串存储到String实习方法
public class CHMDeduplicator<T> {
    private final int prob;
    private final Map<T,T> map;

    public CHMDeduplicator(double prob) {
        this.prob = (int) (Integer.MIN_VALUE + prob * (1L << 32));
        this.map = new ConcurrentHashMap<>();
    }

    public T dedup(T t) {
        if (ThreadLocalRandom.current().nextInt() > prob) {
            return t;
        }
        T exist = map.putIfAbsent(t,t);
        return (exist == null) ? t : exist;
    }
}

请解释一下,这一行中概率的影响是什么:

if (ThreadLocalRandom.current().nextInt() > prob) return t;

这是Java Days https://shipilev.net/talks/jpoint-April2015-string-catechism.pdf的原始演示文稿
(第56张幻灯片)

解决方法

如果您查看下一张幻灯片,其中包含具有不同概率的数据的表格,或者收听 talk,您将看到/听到理由:概率重复数据删除器平衡重复数据删除字符串所花费的时间,以及重复数据删除带来的内存节省.这允许微调处理字符串所花费的时间,甚至在代码周围撒上低概率重复数据删除器,从而分摊重复数据删除成本.

(来源:这些是我的幻灯片)

相关文章

最近看了一下学习资料,感觉进制转换其实还是挺有意思的,尤...
/*HashSet 基本操作 * --set:元素是无序的,存入和取出顺序不...
/*list 基本操作 * * List a=new List(); * 增 * a.add(inde...
/* * 内部类 * */ 1 class OutClass{ 2 //定义外部类的成员变...
集合的操作Iterator、Collection、Set和HashSet关系Iterator...
接口中常量的修饰关键字:public,static,final(常量)函数...