solr 亿万级数据查询性能測试

废话不多说,我电脑配置 i7四核cpu 8G内存

插入数据文档中有5个字段,当中有两个分词。一个int,一个date

批量插入測试一次10万循环10次总共100万用时85秒

批量插入測试一次10万循环100次总共1000万用时865秒

插入性能还是不错的

查询測试

在12166454数据中(约等于一千两百万)总共占用硬盘2.8G

查询分词字段 title:中国用时0.031秒

非分词字段查询 view_count:1 用时 0.030秒

范围查询 view_count:[0 TO 1000] 用时0.125秒

上面这些查询第二次查询的时候用时都在0.001秒之下应该是由于有缓存的原因

相对数据库的模糊查询优势及其明显。我用mysql两千万数据查询“%中国%”直接数据库卡掉了

(只是这么比較美意思。全文检索存储方式跟sql不一样,各有优劣)

在过亿的数据量中

插入一亿数据耗时1小时40分钟35秒
插入过程中 内存占用70%左右 cpu没多少变化 11%左右

(上班写的,未完待续)


原文地址:https://www.cnblogs.com/jzssuanfa/p/6946753.html