Lucene 索引功能

Lucene 数据建模

基本概念

文档(doc): 文档是 Lucene 索引和搜索的原子单元,文档是一个包含多个域的容器。

域(field): 域包含“真正的”被搜索的内容,每一个域都有一个标识名称,而“域值”则是实际被搜索的对象。

词元(term): 每个域的域值可能为一个复合字符串,通过分析器的各种处理,能将其分解为可以被搜索的词元。例如:"中国人China",其中包含的词元有:"中"、"国"、"人"、"china"。

与数据库的比较

灵活的架构: Lucene 没有一个确定的全局模式,加入索引的每一个文档都是独立的,与之前加入的文档没有任何关系。

反向规格化: Lucene 需要解决文档真实结构和 Lucene 表示能力之间的不匹配问题。因为 Lucene 文档都是单一文档,互相没有关系。无法像数据库中通过键将不同的表关联起来。

索引过程

流程示意

  • 提取文本和创建文档:从各种原始数据,比如 XML 文档、syslog 日志、网络数据包等提取出预想的文本信息并建立起对应的、包含各个域的文档。
  • 分析文档:将文本数据分割为词汇单元串,然后执行一些可选操作(转小写、去掉 a/an/the/on/in 等),得到能够被搜索的词元(term)。
  • 向索引添加文档:对输入数据分析完毕后就可以将分析结果写入索引文件中。
  • Lucene 的索引是倒排索引,倒排索引回答"哪些文档包含XXX词元"这样的问题,而不是回答"XXX文档包含有哪些词元"。

倒排索引

分词:

为了创建倒排索引,需要先将各文档(docs)中域(field)的值切分为独立的单词(term),而后将之创建为一个无重复的有序单词列表。这个过程称之为“分词(tokenization)”。

标准化:

为了实现 full-text 域的搜索,倒排索引中的数据还需进行“标准化(normalization)”为标准格式,才能评估其与用户搜索请求字符串的相似度。

例如,将所有大写字符转换为小写,将复数统一为单数,将同义词统一进行索引,去掉类似 the/is/a/ 等这样的 "停用词(stopword)" 等。

分析:

“分词” 和 “正规化” 过程被称为分析,由 Analyzer 完成。

索引结构:

index:一个索引存放在一个目录中。

segment:一个索引中可以有多个段,段与段之间是独立的,添加新的文档可能产生新段,不同的段可以合并成一个新段。

document:文档是创建索引的基本单位,不同的文档保存在不同的段中,一个段可以包含多个文档。

field:域,一个文档包含不同类型的信息,可以拆分开索引。

term:词,索引的最小单位,是经过词法分析和语言处理后的数据。

索引正向信息:

按照层次依次保存了从索引到词的包含关系:

index-->segment-->document-->field-->term。

索引反向信息

反向信息保存了词典的倒排表映射:

term-->document

索引结构图: 

基本索引操作

向索引添加文档:

  • addDocument(Document)                 ————使用默认分析器添加文档,该分析器在创建IndexWriter对象时指定,用于词汇单元化操作
  • addDocument(Document, Analyzer)       ————使用指定的分析器添加文档和词汇单元化操作

删除索引中的文档:

  • deleteDocuments(Term)                    ————删除包含 term 的所有文档
  • deleteDocuments(Term[])                  ————删除包含 term 数组任意元素的所有文档
  • deleteDocuments(Query)                   ————删除匹配查询语句的所有文档
  • deleteDocuments(Query[])                 ————删除匹配查询语句数组任意元素的所有文档
  • deleteAll(term)                         ————删除索引中所有文档

跟更新索引中的文档:

Lucene 只能删除整个旧文档再重新添加新文档,即便是更新 API 实际执行的操作也是如此。

  • updateDocument(Term, Document)                  ————先删除包含 term 变量的文档,在使用 writer 的默认分析器添加新文档
  • updateDocument(Term, Document, Analyzer)        ————功能与上面一致,不过可以指定分析器

 

域选项

域索引选项:

通过倒排索引来控制域文本是否可以被搜索。

  • Index.ANALYZED                                ————使用分析器将域值分解成独立的词汇单元流
  • Index.ANALYZED_NO_NORMS                       ————同上,不过不在索引中存储 norems 信息,可节省内存
  • Index.NOT_ANALYZED                            ——————不对 string 进行分析,将域值作为单一次元进行索引
  • Index.NOT_ANALYZED_NO_NORMS                   ——————同上,不过不在索引中存储norems信息,可节省内存
  • Index.NO                                      ——————使得对应域不可搜索

域存储选项:

用来确定是否需要存储域的真实值以便后续搜索时能恢复这个值。

  • Store.YES————指定存储域值,原始的字符串值全部被保存在索引中
  • Store.NO——————指定不存储域值

域的项向量选项:

Reader、TokenStream、byte[]域值:

域排序选项:

多值域:

对文档和域进行加权操作

当改变一个文档或域的加权因子时,必须完全删除并创建对应的文档,或者使用 updateDocument(起始也是删除再新建)方法。

文档加权操作:

通过文档加权因子,能够指示Lucene在计算相关性时考虑该文档针对索引中其它文档的重要程度。

  • Document 的 setBoost(float) 方法

域加权操作:

通过域加权因子,能够指示Lucene在计算相关性时考虑该文档针对索引中其它文档的重要程度

  • Field 的 setBoost(float) 方法

加权基准(Norms):

索引数字、日期和时间

索引数字:

  • 在字符串中包含数字:通过选择分析器(有些分析器会把"It is a long time from 1900"中的数字去掉,不解析为词元)来保证字符串中的数字不被丢弃,而被当成一个 string 类型的词元(term)
  • 只包含数字的域:要实现对数字域的范围搜索和排序,需要 NumericField 的 set 方法设置域类型为 long/int/float 之一

索引日期和时间:

  • Lucene 首先将他们转换为数值类型(Unix 时间戳)再进行索引

域截取

对一些文档,比如二进制数据,解析失败可能会导致在索引创建大量的无用的域,域截取可以加以控制,以下为2个默认实例。

  • MaxFieldLength.UNLIMITED     ————不采取截取
  • MaxFieldLength.LIMITED       ————截取前1000项

其它 Directory 子类

Lucene 的抽象类 Directory 提供了一个简单的文件存储 API,当操作索引文件进行读写时候,需要调用 Directory 子类的对应方法来进行。

子类负责从文件系统中读写文件,都是继承于抽象基类 FSDirectory。

  • SimpleFSDirectory      ————使用 java.io.* API 将文件存入文件系统
  • NIOFSDirectory         ————使用 java.nio.* API 将文件保存至文件系统
  • MMapDirectory          ————使用内存映射 I/O 进行文件访问
  • RAMDirectory           ————将所有文件都存入 RAM
  • FileSwitchDirectory    ————使用两个文件目录,根据文件扩展名在两个目录之间进行切换

高级索引话题

一些未细化讨论的Lucene索引的高级概念。包括:

  • 用IndexReader删除文档
  • 回收被删除文档的磁盘空间
  • 缓冲和刷新
  • 索引提交
  • ACID事务和索引连续性
  • 合并段
原文地址:https://www.cnblogs.com/licongyu/p/5450814.html