当前位置: 首页 > news >正文

ELK:Elasticsearch、Logstash、Kibana Spring Cloud Sleuth和Spring Cloud Zipkin

 〇、虚拟机中docker安装elasticsearch 、Kibana、Logstash 

        elasticsearch导入中文分词器

        Logstash修改es数据库ip及创建索引名配置

一、elasticsearch数据库的结构

        和mysql作比较,mysql中的数据库的二维表相当于es数据库的index索引结构;mysql数据库的二维表中每一条数据相当于es数据库中的document文档数据。

        每个索引有主分片和副分片,主分片和副分片数据保持一致,类似主从关系。



        index索引有不同于二维表的mappings数据结构:



        document文档数据存放在hits中的hits中



二、使用Kibana图形化界面命令操作es数据库

      1)查看索引、创建索引及mappings结构、创建文档数据

1)查询所有索引

2)查看指定索引goods

3)创建索引并更改mapping结构 

4)创建索引文档

5)其他命令



      2)对文档数据的crud操作






      3)检索操作










三、使用java代码连接操作es数据库

        0)导入依赖坐标

  <parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>2.3.12.RELEASE</version></parent><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-elasticsearch</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency><dependency><groupId>com.fasterxml.jackson.core</groupId><artifactId>jackson-databind</artifactId></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></dependency></dependencies>


        1)创建实体类、并添加注解

                @Field:

                        添加该注解类似于redis的json数据和实体类对象的属性映射时添加的注解,name用来指定映射到es数据库中的字段名称,type用来指定映射到es数据库中的类型,analyzer用来指定分词器,es数据库没有中文分词器,需要自行下载。

                @Document:

                        indexName指定创建index索引时的索引名

   


  2)添加相关配置文件

                别忘记编写启动类


   3) 在测试类中调用es数据库连接对象elasticsearchRestTemplate     

        ①创建索引


        ②增


        ③改


        ④删


        ⑤全字段内容检索


        ⑥全部搜索


        ⑦匹配搜索


        ⑧短语搜索


        ⑨范围搜索


        ⑩多条件搜索


       ⑩①搜索高亮



四、使用Logstash收集日志数据到es数据库中

        0)依赖坐标

<parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>2.3.12.RELEASE</version>
</parent><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>net.logstash.logback</groupId><artifactId>logstash-logback-encoder</artifactId><version>6.3</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></dependency>
</dependencies>

        1)编写logback.xml文件

<?xml version="1.0" encoding="UTF-8"?>

<!--该日志将日志级别不同的log信息保存到不同的文件中 -->

<configuration>

    <include resource="org/springframework/boot/logging/logback/defaults.xml" />

    <springProperty scope="context" name="springAppName"

                    source="spring.application.name" />

    <!-- 日志在工程中的输出位置 -->

    <property name="LOG_FILE" value="${BUILD_FOLDER:-build}/${springAppName}" />

    <!-- 控制台的日志输出样式 -->

    <property name="CONSOLE_LOG_PATTERN"

              value="%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}" />

    <!-- 控制台输出 -->

    <appender name="console" class="ch.qos.logback.core.ConsoleAppender">

        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">

            <level>INFO</level>

        </filter>

        <!-- 日志输出编码 -->

        <encoder>

            <pattern>${CONSOLE_LOG_PATTERN}</pattern>

            <charset>utf8</charset>

        </encoder>

    </appender>

    <!-- logstash远程日志配置-->

    <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">

        <destination>192.168.8.128:4560</destination>

        <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder" />

    </appender>

    <!-- 日志输出级别 -->

    <root level="DEBUG">

        <appender-ref ref="console" />

        <appender-ref ref="logstash" />

    </root>

</configuration>


        2)添加日志注解


         3)kibana查看日志索引文档信息

                        ①)命令查看

                        ②)图形化界面

五、Spring Cloud Sleuth

                Sleuth是在logback的基础上进行请求追踪和日志记录,会标记请求添加一个id。

        0)依赖坐标

<!-- sleuth启动器依赖 -->
<dependency><groupId>org.springframework.cloud</groupId><artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
<!-- logstash相关依赖,用于应用中的Sleuth将采集的跟踪数据发送给logstash使用 -->
<dependency><groupId>net.logstash.logback</groupId><artifactId>logstash-logback-encoder</artifactId><version>5.0</version>
</dependency>

        1)修改logback.xml配置文件<encoder>标签

<?xml version="1.0" encoding="UTF-8"?>
<!--该日志将日志级别不同的log信息保存到不同的文件中 -->
<configuration><include resource="org/springframework/boot/logging/logback/defaults.xml" /><springProperty scope="context" name="springAppName"source="spring.application.name" /><!-- 日志在工程中的输出位置 --><property name="LOG_FILE" value="${BUILD_FOLDER:-build}/${springAppName}" /><!-- 控制台的日志输出样式 --><property name="CONSOLE_LOG_PATTERN"value="%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}" /><!-- 控制台输出 --><appender name="console" class="ch.qos.logback.core.ConsoleAppender"><filter class="ch.qos.logback.classic.filter.ThresholdFilter"><level>INFO</level></filter><!-- 日志输出编码 --><encoder><pattern>${CONSOLE_LOG_PATTERN}</pattern><charset>utf8</charset></encoder></appender><!-- logstash远程日志配置--><appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender"><destination>192.168.222.128:4560</destination><encoderclass="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder"><providers><timestamp><timeZone>UTC</timeZone></timestamp><pattern><pattern>{"severity": "%level","service": "${springAppName:-}","trace": "%X{X-B3-TraceId:-}","span": "%X{X-B3-SpanId:-}","exportable": "%X{X-Span-Export:-}","pid": "${PID:-}","thread": "%thread","class": "%logger{40}","rest": "%message"}</pattern></pattern></providers></encoder></appender><!-- 日志输出级别 --><root level="DEBUG"><appender-ref ref="console" /><appender-ref ref="logstash" /></root>
</configuration>

六、Spring Cloud Zipkin

                Zipkin和Sleuth集成,提供请求追踪,响应时间的可视化界面

                -1)创建docker容器运行Zipkin服务器


                0)依赖坐标

<dependency><groupId>org.springframework.cloud</groupId><artifactId>spring-cloud-starter-zipkin</artifactId>
</dependency>

               1)需要删除logback.xml

               2)访问http://192.168.222.128:9411/zipkin:

http://www.lryc.cn/news/462877.html

相关文章:

  • 动态规划17:123. 买卖股票的最佳时机 III
  • 华为OD机试真题---预定酒店
  • 力扣242.有效的字母异位词
  • Android IP路由策略和防火墙
  • MySQL insert ... select 语句锁表导致数据写不进去
  • Android摄像头Camera2和Camera1的一些总结
  • 【Linux 从基础到进阶】Linux中的用户认证与授权
  • 用户界面设计:视觉美学与交互逻辑的融合
  • ZK集群搭建:详细步骤与注意事项
  • 如何将csdn文章导出为pdf
  • 【艾思科蓝】Imagen:重塑图像生成领域的革命性突破
  • java类和对象(下): 封装 static成员 内部类
  • 外包干了3周,技术退步太明显了。。。。。
  • VIVO算法题——数位之积
  • OPC Router快速打通设备层与influxDB数据通讯
  • 鸿蒙开发 四十四 ArkTs BuilderParam传递UI(二)
  • 同期数分析-留存率
  • Java前后端交互:构建现代Web应用
  • vue3中用axios请求怎么添加cookie
  • informer学习笔记
  • Elasticsearch介绍和使用
  • 【Flutter】基础入门:代码基本结构
  • 如何进行数据库缩容 | OceanBase应用实践
  • 机器学习和深度学习的差别
  • RAG拉满-上下文embedding与大模型cache
  • 前端学习---(2)CSS基础
  • Pandas常用计算函数
  • C++ | Leetcode C++题解之第473题火柴拼正方形
  • 深度解析RLS(Recursive Least Squares)算法
  • Centos 7.9NFS搭建