spring boot集成Elasticsearch-SpringBoot(25)

打印 上一主题 下一主题

主题 1020|帖子 1020|积分 3060

1. Elasticsearch—搜索应用服务器

  1.1 什么是搜索引擎

  搜索引擎(search engine )通常意义上是指:根据特定策略,运用特定的爬虫程序从互联网上搜集信息,然后对信息进行处理后,为用户提供检索服务,将检索到的相关信息展示给用户的系统。
  而我们讲解的是捜索的索引和检索,不涉及爬虫程序的内容爬取。大部分公司的业务也不会有爬取工作,而只提供查询服务,而且Elasticsearch也只是提供这方面的功能。
  1.2 认识 Elasticsearch

  Elasticsearch是一个分布式、RESTful风格的搜索和数据分析引撃。通过它,能够执行及合并多种类型的搜索(结构化数据、非结构化数据、地理位置、指标),解决不新涌现出的各种需求。
  Elasticsearch使用的是标准的RESTful风格的API,使用JSON提供多种语言(Java、 Python、.Net、SQL和PHP)的支持,它可以快速地存储、搜索和分析海量数据。
  Elasticsearch是用Java语言开发的,并使用Lucene作为其核心来实现所有索引和搜索的功能。它的目的是:通过简单的RESTful API来隐藏Lucene的复杂性,从而让全文搜索变得简单。
  Elasticsearch是一个开源的高扩展的分布式全文检索引擎,可以近乎实时地存储、检索数据; 本身扩展性很好,允许多台服务器协同工作,每台服务器可以运行多个实例。单个实例称为一个节(node), 一组节点构成一个集群(cluster)。分片是底层的工作单元,文档保存在分片内,分片又被分配到集群内的各个节点里,每个分片仅保存全部数据的一部分。
  当Elasticsearch的节点启动后,它会使用多播(multicast)或单播(用户更改了配置)寻找集群中的其他节点,并与之建立连接。
  1.3 Elasticsearch 应用案例


  • GitHub: 2013年年初,GitHub把Solr缓存改成了Elasticsearch,以便用户搜索20TB 的数据,包括13亿个文件和1300亿行代码。
  • 维基百科:启动以Elasticsearch为基础的核心搜索架构SoundCloud,为1.8亿用户提供即时而精准的音乐搜索服务。
  • 百度:百度使用Elasticsearch作为数据分析引擎,20多个业务税采集服务器上的各类数据及用户自定义数据,通过对各种数据进行多维分析,辅助定位异常。其单集群最大100台机器,200个Elasticsearch节点,每天导入超过30TB的数据。
除这些公司外,Stack Overflow、新浪、阿里、360、携程、有赞、苏宁都在使用它。它被广泛地用于各大公司的站内搜索、IT系统搜索(OA、CRM、ERP)、数据分析等工作中。
  1.4 对比 Elasticsearch 与 MySQL

  尽管将Elasticsearch与MySQL进行对比并不科学,但是这样的对比能区分Elasticsearch 和MySQL数据库的区别,便于快速用熟悉的知识来理解Elasticsearch 。所以,本节采用对比的方式来讲解Elasticsearch。Elasticsearch与MySQL的结构对比见表13-1。
  
  图 13-1

  • 关系型数据库中的数据库,相当于Elasticsearch中的索引(index )。
  • 一个数据库下面有多张表(table),相当于一个索引(index)下面有多个类型(type)。
  • 一个数据库表(table)下的数据由多行(row)多列(column属性)组成,相当于一个 type由多个文档(document)和多个field组成。
  • 在关系型数据库中,schema定义了表、每个表的字段,还有表和字段之间的关系;在 Elasticsearch中,mapping定义索引下的type的字段处理规则,即索引如何建立、索引类型、 是否保存原始索引 JSON文档、是否压缩原始JSON文档、是否需要分词处理、如何进行分词处理等。
  • 在 MySQL 数据库中的增(insert )、删(delete )、改(update )、查 ( select)操作相 当于 Elasticsearch 中的增(put/post )、删(delete )、改(update )、查(get)
  客户端主要通过"方法(PUT/POST/GET/ DELETE ) + http://ip:端口/索引名称/类型/主键” 来访问内容。
  1.5 认识 ElasticSearchRepository

  Spring-data-elasticsearch 是 Spring 提供的操作 Elasticsearch 的数据接口,它封装了大量的基础操作。通过它可以很方便地操作Elasticsearch的数据。
  通过继承ElasticsearchRepository来完成基本的CRUD及分页操作,和普通的 JPA没有什 么区别。比如下面实体Product的Repository继承ElasticsearchRepository后,可以在 Elasticsearch文档中进行查找和比较等操作。具体使用方法见以下代码:
  1. @Component
  2. public interface UserRepository extends ElasticsearchRepository<User,Long> {
  3.     Optional<User> findById(Long id);
  4.     User findByUsername(String username);
  5.     List<User> findByEmail(String email);
  6. }
复制代码
  ElasticsearchRepository有几个特有的search方法,用来构建一些Elasticsearch查询, 主要由QueryBuilder和SearchQuery两个参数来完成一些特殊查询。
  实现类NativeSearchQuery实现了 QueryBuilder和SearchQuery方法,要构建复杂查询, 可以通过构建NativeSearchQuery类来实现。
  —般情况下,不是直接新建NativeSearchQuery类,而是使用NativeSearchQueryBuilder 来完成NativeSearchQuery的构建。具体用法见以下代码:
  1. NativeSearchQueryBuilder builder = new NativeSearchQueryBuilder();
  2. builder.withQuery()
  3.     .withFilter()
  4.     .withSort()
  5.     .withXXX().build();
复制代码
  1.6 认识 ElasticsearchTemplate

  
  ElasticsearchTemplate是Spring对Elasticsearch的API进行的封装,主要用来对索引进行创建、删除等操作。它继承了 ElasticsearchOperations 和 ApplicationContextAware 接口。 ElasticSearchTemplate 提供一些比 ElasticsearchRepository 更底层的方法。
  ElasticsearchOperations接口中常用的方法如下。



    • createlndex()方法:创建索引,返回值为布尔类型数据。
    • indexExists()方法:查询索引是否存在,返回值为布尔类型数据。
    • putMapping()方法:  创建映射,返回值为布尔类型数据。
    • getMapping()方法:得到映射,返回值为一个Map数据。
    • deletelndex()方法:删除索引,返回值为布尔类型数据。

  1.7 认识注解@Document

  注解@Document作用于类,用于标记实体类为文档对象。
  存储在Elasticsearch中的一条数据,即是一个文档,类似关系型数据库的一行数据。 Elasticsearch会索引每个文档的内容,以便搜索。它使用JSON格式,将数据存储到Elasticsearch 中,实际上是将JSON格式的字符串发送给了 Elasticsearch。
  1.document的核心元数据

  document有三个核心元数据,分别是 _index、_type、_id
  (1)_index。代表一个document存放在哪个index中,类似的数据放在一个索引中,非类似的数据放在不同的索引中。index中包含了很多类似的document,这些document的field很大一 部分是相同的。索引名称必须小写,不能用下画线开头,不包含逗号。
  (2)_type。代表document属于index的哪个类别,一个索引通常会划分为多个type,逻辑 index不同的数据进行分类。type名称可以是大写或小写,但是不能用下画线开头,不能包含逗号。
  (3)_id。代表document的唯一标识,与_index和_type —起可以标识和定位一个 document。默认自动创建id,也可以手动指定document的id。
  2.document id的手动指定和自动生成

  (1)手动指定 document id

  如果需要从某些其他系统中导入一些数据到Elasticsearch,则会采用手动指定id的形式,因 为一般情况下系统中已有数据的唯一标识,可以用作Elasticsearch中的document的id。
  其语法格式为:
  1. put /index/type/id
  2. {
  3.     "json"
  4. }
复制代码
  (2)自动生成 document id

  其语法格式为:
  1. post /index/type
  2. {
  3.     "json"
  4. }
复制代码
  自动生成的id长度为20个字符,URL安全、Base64编码、GUID、分布式系统并行生成时不会发生冲突。
  3. document的_source元数据,以及定制返回结果

  _source元数据是在创建document时放在body中的JSON数据。在默认情况下,查找数据时会返回全部数据。如果要定制返回结果,则可以指定_source中返回哪些field
  例如:
  GET /_index/_type/1?_source=field
  1.8 管理索引

    1. 创建索引


      (1)根据类的信息自动生成创建索引

        下面代码是根据实体类创建一个名为 "ec" 的索引,并定义type是“product”。由于是单机环境,所以定义副本为0,分片为默认值5。
  1. @Data
  2. @Document(indexName = "user",type = "user",replicas = 0,shards = 5)
  3. public class User implements Serializable {
  4.     private int id;
  5.     private String username;
  6.     private String password;
  7. }
复制代码
代码解释如下。

  • indexName :对应索引库名称,可以理解为数据库名。必须小写,否则会报 "org.elasticsearch.indices.InvalidlndexNameException"异常。
  • type:对应在索引库中的类型,可以将其理解为“表名”
  • shards:分片数量,默认值为5。
  • replicas:副本数量,默认值为1。如果是单机环境,则健康状态为“yellow”。如果要成为 "green”,则指定值为0即可。
      (2)手动创建索引

 可以使用createindex方法手动指定indexName和Settings,再进行映射。在使用前,要先注入ElasticsearchTemplate,使用方法如下。

  • 根据索引名创建索引:
  1. elasticsearchTemplate.createIndex("indexname");
复制代码

  • 根据类名创建索引:
  1. elasticsearchTemplate.createIndex(User.class);
复制代码
    2. 查询索引


  • 根据索引名查询:
  1. elasticsearchTemplate.indexExists("indexname");
复制代码

  • 根据类名查询:
  1. elasticsearchTemplate.indexExists(User.class);
复制代码
    3. 删除索引

    可以根据索引名和类名对索引进行删除。

  • 根据索引名删除:
  1. elasticsearchTemplate.deleteIndex("indexname");
复制代码

  • 根据类名删除:
  1. elasticsearchTemplate.deleteIndex(User.class);
复制代码
2. 用ELK管理Spring Boot应用程序的日志  

ELK 是 Elasticsearch+Logstash+Kibana 的简称。
Logstash负责将数据信息从输入端传输到输出端,比如将信息从MySQL传入Elasticsearch, 还可以根据自己的需求在中间加上滤网。Logstash提供了很多功能强大的滤网,以满足各种应用场景。
Logstash有以下两种工作方式。

  • 每一台机器启动一个Logstash服务,读取本地的数据文件,生成流传给Elasticsearch。
  • Logback引入Logstash包,然后直接生产JSON流,传给一个中心的Logstash服务器,Logstash服务器再传给Elasticsearch,最后,Elasticsearch将其流传给Kibana。
Kibana是一个开源的分析与可视化平台,和Elasticsearch —起使用。可以用Kibana搜索、 查看、交互存放在Elasticsearch索引里的数据。使用各种不同的图标、表格、地图等,Kibana能够很轻昜地展示高级数据分析与可视化。
ELK架构为数据分布式存储、日志解析和可视化创建了一个功能强大的管理链。三者相互配合, 取长补短,共同完成分布式大数据处理工作。
  2.1 安装 Elasticsearch

  (1)通过官网下载Elasticsearch。
  (2)在下载完成后,首先将其解压到合适的目录,然后进入解压目录下的bin目录,双击 bat文件启动Elasticsearch。这里需要确保安装的Java版本在1.8及以上。
   (3)访问“http://localhost:9200/”,当看到返回一串JSON格式的代码时,则说明已经安装成功了。
  根据应用需要,还可以安装Elasticsearch必要的一些插件,如Head、kibana、IK (中文分 词)、graph。
  2.2 安装 Logstash

  1. 安装 Logstash

  (1)访问 Elasticsearch 官网下载 Logstash
    (2)将下载文件解压到自定义的目录即可。
  2. 配置 Logstash

  (1 )在解压文件的config目录下新建log4j_to_es.conf文件,写入以下代码:
  1. input {
  2.         beats {
  3.                 port => 5044
  4.                 codec => "json"
  5.         }
  6. }
  7. output {
  8.         elasticsearch {
  9.                 hosts => "127.0.0.1:9200"
  10.                 codec => json
  11.         }
  12. }
复制代码
  这里一定要注意:这是UTF-8的格式,不要帯BOM。如果启动时岀现错误,则可以用“logstash -f ../config/xxx.conf -t“命令检查配置文件是否错误。
  (2)新建文件 run.bat。写入代码 logstash -f .\config\log4j_to_es.conf保存。然后双击该配置文件,启动Logstash。
    (3)访问 localhost:9600 如出现以下內容,则代表配置成功。
  1. {"host":"DESKTOP-0VSQ1JE","version":"8.3.3","http_address":"127.0.0.1:9600",
  2. "id":"f9a14845-005b-42f2-8725-9b3f67dafe86","name":"DESKTOP-0VSQ1JE",
  3. "ephemeral_id":"9ffa0b64-c9bb-4385-8924-6565b4cd8167","status":"green",
  4. "snapshot":false,"pipeline":{"workers":8,"batch_size":125,"batch_delay":50},
  5. "build_date":"2022-07-23T19:31:54Z","build_sha":"0205f0c5f2ff21118c161e769e8f2bbb79ee81a3",
  6. "build_snapshot":false}
复制代码
  2.3 安装Kibana

Kibana是官方推出的Elasticsearch数据可视化工具。
  (1)通过访问Elasticsearch官网下载Kibana。
  (2)解压下载的压缩文件,进入解压目录,双击Kibana目录的bin/kibana.bat,以启动 Kibana,当岀现以下提示时,代表启动成功。
  [2022-08-16T16:30:45.443+08:00][INFO ][status] Kibana is now available (was degraded)
  (3)访问localhost:5601就可以逬入Kibana控制台。
  单击控制台左边导航栏的“Dev-tools”按钮,可以进入Dev-tools界面。单击"Get to work", 然后在控制台输入“GET/_cat/health?”命令,可以查看服务器状态。如果在右侧返回的结果中看到green或yellow ,则表示服务器状态正常。
  2.4 配置 Spring Boot 项目

  (1)添加项目依赖
  1. <dependency>
  2.     <groupId>org.springframework.boot</groupId>
  3.     <artifactId>spring-boot-starter-log4j</artifactId>
  4.     <version>1.3.6.RELEASE</version>
  5. </dependency>
  6. <dependency>
  7.     <groupId>net.logstash.logback</groupId>
  8.     <artifactId>logstash-logback-encoder</artifactId>
  9.     <version>7.2</version>
  10. </dependency>
复制代码
  (2)添加配置文件logback.xml,这里在Spring Boot项目里添加一个配置又件,见以下代码:
  1. <?xml version="1.0" encoding="UTF-8" ?>
  2. <configuration>
  3.     <appender name="LOGSTASH" >
  4.         <destination>localhost:9601</destination>
  5.         <encoder charset="UTF-8" />
  6.     </appender>
  7.     <appender name="STDOUT" >
  8.         <encoder charset="UTF-8">
  9.             <pattern>%d{HH:mm:ss.SSS}[%thread]%-5level %logger - %msg%n</pattern>
  10.         </encoder>
  11.     </appender>
  12.     <root level="INFO">
  13.         <appender-ref ref="LOGSTASH"/>
  14.         <appender-ref ref="STDOUT"/>
  15.     </root>
  16. </configuration>
复制代码
  2.5 创建日志计划任务

  在Spring Boot项目中创建logTest类,用于测试将日志通过Logstash发送到Elasticsearch, 见以下代码:
3. Spring Boot集成Elasticsearch

  实现增加、删除、修改、查询文档的功能
  3.1 集成 Elasticsearch

Spring Boot 提供了 Starter ( spring-boot-starter-data-elasticsearch )来集成 Elasticsearch

  • 优点:开发速度快,不要求熟悉Elasticsearch的一些API,能快速上手。即使之前对 Elasticsearch不了解,也能通过方法名或SQL语句快速写岀自己需要的逻辑。而具体转换成API层的操作则是由框架底层实现的。
  • 缺点:使用的Spring Boot的版本Elasticsearch的版本也有了要求,不能超过某些版本号,在部署时需要注意。如果采用API方式,则能解决这个问题。
  (1)添加依赖
  1. <dependency>
  2.     <groupId>org.springframework.data</groupId>
  3.     <artifactId>spring-data-elasticsearch</artifactId>
  4. </dependency>
复制代码
  (2)添加application.yml配置
  1. spring:
  2.   data:
  3.     elasticsearch:
  4.       repositories:
  5.         enabled: true #是否开启本地存储
  6.       cluster-nodes: 127.0.0.1:9200
  7.       cluster-name: elasticsearch
复制代码
  3.2 创建实体

  (1)创建实体

  这里根据类的信息自动生成,也可以手动指定索引名称。ElasticsearchTemplate中提供了创建素引的API,因为进行本机测试,没做集群,所以replicas副本先设置为0。见以下代码:
  1. package com.intehel.demo.domain;
  2. import lombok.AllArgsConstructor;
  3. import lombok.Data;
  4. import lombok.NoArgsConstructor;
  5. import org.springframework.data.annotation.Id;
  6. import org.springframework.data.elasticsearch.annotations.Document;
  7. import org.springframework.data.elasticsearch.annotations.Field;
  8. import org.springframework.data.elasticsearch.annotations.FieldType;
  9. import java.io.Serializable;
  10. @Document(indexName = "ec",replicas = 0,shards = 5,type = "product")
  11. @Data
  12. @AllArgsConstructor
  13. @NoArgsConstructor
  14. public class Product implements Serializable {
  15.     //@Id注解必须是org.springframework.data.annotation.Id;
  16.     @Id
  17.     private Long id;
  18.     //ik_max_word使用ik分词器
  19.     @Field(type = FieldType.Text,analyzer = "ik_max_word")
  20.     private String name;
  21.     //在存储数据时,不会对category进行分词
  22.     @Field(type = FieldType.Keyword)
  23.     private String category;
  24.     //价格
  25.     @Field(type = FieldType.Double)
  26.     private Double price;
  27.     //index = false 表示不建立索引
  28.     @Field(index = false,type = FieldType.Keyword)
  29.     private String images;
  30.     private String body;
  31. }
复制代码
代码解释如下,

  • @ld注解:作用于成员变量,标记一个字段作为id主键。
  • @Field注解:作用于成员变量,标记为文档的字段,需要指定字段映射属性type。
  • index:是否索引,布尔类型,默认为true。
  • store:是否存储,布尔类型,默认为false,
  • analyzer;分词器名称,这里的ik_max_word即使用IK分词器。
  (2)创建数据操作接口
  1. package com.intehel.demo.repository;
  2. import com.intehel.demo.domain.Product;
  3. import org.springframework.data.elasticsearch.repository.ElasticsearchRepository;
  4. import java.util.Optional;
  5. public interface ProductRepository extends ElasticsearchRepository<Product,Long> {
  6.     @Override
  7.     Optional<Product> findById(Long id);
  8.     Product findByName(String name);
  9. }
复制代码
  3.3 实现增加、删除、修改和查询文档的功能

  在测试类中,实Elasticsearch文档进行增加、删除、修改和查询的功能,见以下代码:
查看代码
  1.  package com.intehel.demo;
  2. import com.intehel.demo.domain.Product;
  3. import com.intehel.demo.domain.User;
  4. import com.intehel.demo.repository.ProductRepository;
  5. import org.junit.jupiter.api.Test;
  6. import org.junit.runner.RunWith;
  7. import org.springframework.amqp.core.QueueBuilder;
  8. import org.springframework.beans.factory.annotation.Autowired;
  9. import org.springframework.boot.test.context.SpringBootTest;
  10. import org.springframework.data.domain.Sort;
  11. import org.springframework.test.context.junit4.SpringRunner;
  12. import java.util.Optional;
  13. @SpringBootTest
  14. @RunWith(SpringRunner.class)
  15. class ElasticApplicationTests {
  16.     private Integer PAGESIZE = 10;
  17.     @Autowired
  18.     private ProductRepository productRepository;
  19.     @Test
  20.     public void save(){
  21.         long id = System.currentTimeMillis();
  22.         Product product = new Product(id,"红富士","水果",7.99,"jpg","测试");
  23.         try {
  24.             productRepository.save(product);
  25.         }catch (Exception e){
  26.             e.printStackTrace();
  27.         }
  28.         System.out.println(product.getId());
  29.     }
  30.     @Test
  31.     public void getProduct(){
  32.         Product product = productRepository.findByName("红富士");
  33.         System.out.println(product.getId());
  34.     }
  35.     @Test
  36.     public void updateProduct(){
  37.         long id = 1660653233939L;
  38.         Product product = new Product(id,"烤冷面","小吃",7.00,"jpg","测试");
  39.         productRepository.save(product);
  40.     }
  41.     @Test
  42.     public void getProductById(){
  43.         Optional<Product> product = productRepository.findById(1660653233939L);
  44.         System.out.println(product.get().getName()+product.get().getBody());
  45.     }
  46.     @Test
  47.     public void deleteProduct(){
  48.         long id = 1660653233939L;
  49.         productRepository.deleteById(id);
  50.     }
  51.     @Test
  52.     public void getAll(){
  53.         Iterable<Product> list = productRepository.findAll(Sort.by("id").ascending());
  54.         for (Product product : list) {
  55.             System.out.println(product);
  56.         }
  57.     }
  58. }
复制代码
4. Elasticsearch查询

  4.1 自定义方法

   可以根据Spring Data提供的方法名称,实现自己想自定义的查询功能:无须写实现类,只要继承ElasticsearchRepository接口即可。如"findByTitle"表示根据"title”进行查询,具体方法见表13~2
  

图 13-2
  如果要查询价格在7 ~ 8元的商品,则可以在接口类加上"List findByPriceBetween(Double min, Double max);"方法,见以下代码:
  1. public interface ProductRepository extends ElasticsearchRepository<Product,Long> {
  2.     @Override
  3.     List<Product> findByPriceBetween(Double min, Double max);
  4. }
复制代码
  然后,在测试类中直接使用自定义的"findByPriceBetween"方法查询出数据,见以下代码:
  1. @Test
  2. public void queryByPriceBetween(){
  3.     Iterable<Product> list = productRepository.findByPriceBetween(7.00,8.00);
  4.     for (Product product : list) {
  5.         System.out.println(product);
  6.     }
  7. }
复制代码
  4.2 精准查询

  1.单参数 termQuery

  用法见以下代码:
  1. QueueBuilder queueBuilder = QueueBuilder.termQuery("字段名","查询值");
复制代码
它是不分词查询。因为不分词,所以汉字只能查询一个字,而多字母的英语单词算一个字
具体实现见以下代码:
  1. @Test
  2. public void queryByPriceBetween(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.termQuery("name","富"));
  5.     //查询词,只能查询一个汉字,或一个英文单词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
  2.多参数--termsQuery

  terms可以提供n个查询的参数对一个字段进行查询,用法见以下代码。注意,这里是term的复数形式terms
  QueueBuilder queueBuilder = QueueBuilder.termsQuery("字段名","查询值","查询值");
  1. @Test
  2. public void queryByPriceBetween(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.termsQuery("name","富","帅"));
  5.     //查询词,只能查询一个汉字,或一个英文单词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
  3.分词查询-- matchQuery

  分词查询采用默认的分词器.用法见以下代码
  QueueBuilder queueBuilder = QueueBuilder.matchQuery("字段名","查询值");
  具体实现见以下代码:
  1. @Test
  2. public void matchQuery() throws Exception {}{
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.matchQuery("name","红士"));
  5.     //查询词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
  4.多字段查询 multiMatchQuery
  1. @Test
  2. public void matchQuery(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.multiMatchQuery("红富士Gila","name","body"));
  5.     //查询词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
  4.3 模糊查询

  常见的模糊查询的方法有4种
  1.左右模糊
  1. QueryBuilders.queryStringQuery("查询值").field("字段名")
复制代码
   具体实现见以下代码:
  1. @Test
  2. public void matchQuery(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.queryStringQuery("我觉得红富士好吃").field("name"));
  5.     //查询词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
  2. 前缀查询--- prefixQuery

  如果字段没分词,则匹配整个字段前缀,用法见以下代码:
  1. QueryBuilders.prefixQuery("字段名","查询值")
复制代码
  具体实现见以下代码:
  1. @Test
  2. public void matchQuery(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.prefixQuery("name","士"));
  5.     //查询词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
   3. 通配符查询  wildcard query

  使用通配符方式进行查询,支持通配符”*“和”?“,”*“代表任意字符串,”? ”代表任意一个字符。
  (1)使用通配符”*“
  通配符可以匹配多个值,用法见以下代码:
  1. @Test
  2. public void matchQuery(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.wildcardQuery("name","*士"));
  5.     //查询词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
  (2)使用通配符“?”
  1. @Test
  2. public void matchQuery(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.wildcardQuery("name","红富?"));
  5.     //查询词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
  4. 分词模糊査询   fuzzy query

  分词模糊查询即匹配截取字符串为字前或后加1个词的文档,这里通过增加fuzziness (模糊) 属性来查询,fuzziness的含义是检索的term前后增加或减少n个词的匹配查询。用法见以下代码
  1. QueryBuilders.fuzzyQuery("字段名","查询值").fuzziness(Fuzziness.ONE)
复制代码
  具体实现见以下代码:
  1. @Test
  2. public void matchQuery(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.fuzzyQuery("name","士").fuzziness(Fuzziness.ONE));
  5.     //查询词
  6.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  7.     //搜索,获取结果
  8.     for (Product product : page){
  9.         System.out.println(product);
  10.     }
  11. }
复制代码
  5. 相似内容推荐

  相似内容的推荐是给定一篇文档信息,然后向用户推荐与该文档相似的文档。通过 Elasticsearch的More like this查询接口,可以非常方便地实现基于内容的推荐,用法见以下代码: QueryBuilders.moreLikeThisQuery(new StnngQ ("WfiS"}).addLikeText("@i®ffi");
  如果不指定字段名,则默认全部,常用在相似内容的推荐上。
  QueryBuilders.moreLikeThisQuery(new String[]{"字段名"}).addLikeText("查询值")
  4.4 范围查询

  闭区间查询:QueryBuilders.rangeQuery("字段名").from("值1").to("值2")
  开区间查询:QueryBuilders.rangeQuery("字段名").from("值1").to("值2").includeLower(false).includeUpper(false)
  大于:QueryBuilders.rangeQuery("字段名").gt("查询值")
  大于或等于:QueryBuilders.rangeQuery("字段名").gte("查询值")
  小于:QueryBuilders.rangeQuery("字段名").lt("查询值")
  小于或等于:QueryBuilders.rangeQuery("字段名").lte("查询值")
  4.5 组合查询

组合查询是可以设置多个条件的查询方式,用来组合多个查询。有4种方式。

  • must:代表文档必须完全匹配条件,相当于and,会参与计算分值。
  • mustnot:代表必须不满足匹配条件。
  • filter:代表返回的文档必须满足filter条件,但不会参与计算分值。
  • should:代表返回的文档可能满足条件,也可能不满足条件,有多个should时满足任何一 个就可以,相当于or,可以通过minimum_should_match设置至少满足几个。
  4.6 分页查询

  使用NativeSearchQueryBuilder实现分页查询,用法见以下代码:
  1. @Test
  2. public void matchQuery(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.termQuery("name","富"));
  5.     nativeSearchQueryBuilder.withPageable(PageRequest.of(0,5));
  6.     //查询词
  7.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  8.     //搜索,获取结果
  9.     for (Product product : page){
  10.         System.out.println(product);
  11.     }
  12. }
复制代码
  如果要进行排序,只要在分页查询上构建withSort参数即可,用法见以下代码:
  1. @Test
  2. public void matchQuery(){
  3.     NativeSearchQueryBuilder nativeSearchQueryBuilder = new NativeSearchQueryBuilder();
  4.     nativeSearchQueryBuilder.withQuery(QueryBuilders.termQuery("name","富"));
  5.     nativeSearchQueryBuilder.withSort(SortBuilders.fieldSort("id").order(SortOrder.DESC));
  6.     nativeSearchQueryBuilder.withPageable(PageRequest.of(0,5));
  7.     //查询词
  8.     Page<Product> page = productRepository.search(nativeSearchQueryBuilder.build());
  9.     //搜索,获取结果
  10.     for (Product product : page){
  11.         System.out.println(product);
  12.     }
  13. }
复制代码
  4.7 聚合查询

  聚合(aggregation )是Elasticsearch的一个强大功能,可以极其方便地实现对数据的统计、分析工作。搜索是查找某些具体的文档,聚合就是对这些搜索到的文档进行统计,可以聚合出更加细致的数据。它有两个重要概念。

  • Bucket (桶/集合):满足特定条件的文档的集合,即分组。
  • Metric (指标/度量):对桶内的文档进行统计计算(最小值、最大值),简单理解就是进行运算
聚合由AggregationBuilders类来构建,它提供的静态方法见表13-3
  
表 13-3
  具体用法见以下代码:
  1. public List<StringTerms.Bucket> searchBybucket(){
  2.     NativeSearchQueryBuilder queryBuilder = new NativeSearchQueryBuilder();
  3.     queryBuilder.withSourceFilter(new FetchSourceFilter(new String[]{""},null));
  4.     //指定索引的类型,只先从各分片中查询匹配的文档,再重新排名,取前size个文档
  5.     queryBuilder.withSearchType(SearchType.QUERY_THEN_FETCH);
  6.     //添加一个新的聚合,聚合类型为terms,聚合名称为brands,聚合字段为brand
  7.     queryBuilder.addAggregation(AggregationBuilders.terms("brand").field("brand"));
  8.     //查询,需要把结果强转为Aggregatedpage类型,Aggregatedpage:聚合查询的结果类,它是Page<T>的子接口
  9.     AggregatedPage<Product> productsPage = (AggregatedPage<Product>) productRepository.search(queryBuilder.build());
  10.     //从结果中取出名为brands的聚合解析
  11.     //强转为StringTerm类型
  12.     StringTerms aggregations = (StringTerms) productsPage.getAggregation("brands");
  13.     //获取桶
  14.     List<StringTerms.Bucket> buckets = aggregations.getBuckets();
  15.     //遍历
  16.     for (StringTerms.Bucket bucket : buckets) {
  17.         //获取桶中的key
  18.         System.out.println(bucket.getKey());
  19.         //获取桶中的文档数量
  20.         System.out.println(bucket.getDocCount());
  21.     }
  22.     return buckets;
  23. }
复制代码
  还可以嵌套聚合,在聚合AggregationBuilders中使用subAggregation,用法见以下代码:
  1. queryBuilder.addAggregation(AggregationBuilders.terms("brand").field("brand")
  2.                             .subAggregation(AggregationBuilders.avg("price_avg").field("price"))
  3.                             //在品牌聚合桶内进行嵌套聚合
  4.                            );
复制代码
 

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

莫张周刘王

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表