当前位置: 首页 > news >正文

docker-compose部署单机ES+Kibana

记录部署的操作步骤

  • 准备工作
  • 编写docker-compose.yml
  • 启动服务
  • 验证部署结果

本次elasticsearch和kibana版本为8.2.2
使用环境:centos7.9
本次记录还包括:安装elasticsearch中文分词插件和拼音分词插件

准备工作

1、创建目录和填写配置

mkdir /home/es/singleecho "http.host: 0.0.0.0" >> ./config/elasticsearch.ymlecho "xpack.security.enabled: false" >> ./config/elasticsearch.ymlchmod -R 777 /home/es/single

2、准备中文分词插件和拼音分词插件

2.1 获取中文和拼音分词插件

下载地址:

https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v8.2.2/elasticsearch-analysis-ik-8.2.2.zip

https://github.com/medcl/elasticsearch-analysis-pinyin/releases/download/v8.2.2/elasticsearch-analysis-pinyin-8.2.2.zip

ps. github是国外网站不好访问,已将插件下载好放在了网盘里可自取:

链接: https://pan.baidu.com/s/1996C788VCKhZ6BIj7heumQ
提取码: p958

在这里插入图片描述
2.2 创建存放插件的文件夹

cd /home/es/singlemkdir plugins

将插件压缩包本地解压后 上传到 plugins文件夹下

编写docker-compose.yml

cd /home/es/single
vim docker-compose.yml
version: '2.1'services:  elasticsearch:image: elasticsearch:8.2.2container_name: elasticsearchrestart: alwaysvolumes:- ./config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml- ./data:/usr/share/elasticsearch/data- ./plugins:/usr/share/elasticsearch/pluginsenvironment:- "discovery.type=single-node"- "ES_JAVA_OPTS=-Xms64m -Xmx512m"     ports:- 9200:9200- 9300:9300kibana: image: kibana:8.2.2container_name: kibanarestart: always  environment:- ELASTICSEARCH_HOSTS=http://192.168.8.87:9200       ports:- 5601:5601

启动服务

cd /home/es/single
# 后台启动
docker compose up -d 

ps. 其他管理服务的命令

#关闭
docker compose stop 
#关闭并删除容器
docker compose down 
#重启服务
docker compose restart 

验证部署结果

1、查看容器运行状态

docker ps

在这里插入图片描述
2、访问页面
Elasticsearch
在这里插入图片描述
Kibana
在这里插入图片描述
3、操作ES
步骤:
(1)进入Kibana
在这里插入图片描述
(2)使用Kibana的 Dev Tools 操作Elasticsearch
在这里插入图片描述
4、看分词器插件是否正常使用

4.1 查看插件

GET _cat/plugins

在这里插入图片描述

4.2 测试中文插件ik

ik提供的两种analyzer:

  1. ik_max_word会将文本做最细粒度的拆分,适合 Term Query;
  2. ik_smart: 会做最粗粒度的拆分,适合 Phrase 查询。

ik_max_word 分词结果

GET _analyze
{"tokenizer": "ik_max_word","text": ["天安门"]
}

在这里插入图片描述

ik_smart 分词结果

GET _analyze
{"tokenizer": "ik_smart","text": ["天安门"]
}

在这里插入图片描述

查看 拼音 分词结果

GET _analyze
{"tokenizer": "pinyin","text": ["天安门"]
}

在这里插入图片描述

拼音分词器拆词时,除了会将每个文字转化为拼音,也会存每个文字的首字母。实现搜索首字母也能返回对应结果的效果

效果示例如图:
在这里插入图片描述

http://www.lryc.cn/news/290532.html

相关文章:

  • gitee仓库项目迁移到gitlab仓库
  • 安装elasticsearch、kibana、IK分词器
  • 海外云手机运营Instagram攻略
  • 【lesson25】学习MySQL事务前的基础知识
  • SkyWalking+es部署与使用
  • js获取html中的img标签,图片标签,提取src属性并替换操作
  • 【力扣经典面试题】27. 移除元素
  • MicrosoftEdge浏览器打开网页出现“此网站被人举报不安全”问题时解决办法
  • 【PyCharm教程】PyCharm 安装、卸载和升级包
  • 蓝桥杯-常用STL(一)
  • SQL查询数据库环境(dm8达梦数据库)
  • DolphinScheduler + Amazon EMR Serverless 的集成实践
  • 【服务器APP】利用HBuilder X把网页打包成APP
  • vue3 组合式API获取子组件的属性和方法
  • [数据结构+算法] 给一棵树和一个sum,判断是否存在从root到叶子结点的path之和等于sum?
  • 非阿里云注册域名如何在云解析DNS设置解析?
  • 微服务-微服务Alibaba-Nacos注册中心实现
  • 多符号表达式的共同子表达式提取教程
  • Java 反射获取属性名、属性类型、属性值、判断属性类型
  • Docker私有仓库搭建
  • C语言第十三弹---VS使用调试技巧
  • AST反混淆实战-jsjiamiv7最高配置
  • colorThief+vite+react使用方法
  • Hive(15)中使用sum() over()实现累积求和和滑动求和
  • 2024年Java搭建面试题
  • 二维数组的学习
  • Java集合(List集合)
  • 7、Json文件的操作总结【robot framework】
  • python 循环解压 解压多重压缩包
  • 基于C#制作一个连连看小游戏