同步操作将从 plume开源社区/Plumelog 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
1.安装 redis 或者 kafka(一般公司redis足够) redis 官网:https://redis.io kafka:http://kafka.apache.org
2.安装 elasticsearch(推荐6.8) 6.8官网下载地址:https://www.elastic.co/cn/downloads/past-releases/elasticsearch-6-8-10
3.下载安装包,plumelog-ui和plumelog-server 下载地址:https://gitee.com/frankchenlong/plumelog/releases
4.配置plumelog-server,并启动
配置文件 plumelog-server/application.properties 详解:
#值为4种 redis,kafka,rest,restServer
#redis 表示用redis当队列
#kafka 表示用kafka当队列
#rest 表示从rest接口取日志
#restServer 表示作为rest接口服务器启动
plumelog.server.model=redis
#如果使用kafka,启用下面配置
#plumelog.server.kafka.kafkaHosts=172.16.247.143:9092,172.16.247.60:9092,172.16.247.64:9092
#plumelog.server.kafka.kafkaGroupName=logConsumer
#如果使用redis,启用下面配置
plumelog.server.redis.redisHost=172.16.249.72:6379
#如果使用redis有密码,启用下面配置
#plumelog.server.redis.redisPassWord=123456
#如果使用rest,启用下面配置
#plumelog.server.rest.restUrl=http://127.0.0.1:8891/getlog
#plumelog.server.rest.restUserName=plumelog
#plumelog.server.rest.restPassWord=123456
#elasticsearch相关配置
plumelog.server.es.esHosts=172.16.251.196:9200
#ES7.*已经去除了索引type字段,所以如果是es7不用配置这个,7.*以下不配置这个会报错
plumelog.server.es.indexType=plumelog
#ES设置密码,启用下面配置
#plumelog.server.es.userName=elastic
#plumelog.server.es.passWord=plumelog123456
#单次拉取日志条数
plumelog.server.maxSendSize=5000
#拉取时间间隔,kafka不生效
plumelog.server.interval=1000
5.配置plume-ui,并启动,默认端口8989
配置文件 plumelog-ui/application.properties 详解:
spring.application.name=plumelog-ui
server.port=8989
spring.thymeleaf.mode=LEGACYHTML5
spring.mvc.view.prefix=classpath:/templates/
spring.mvc.view.suffix=.html
spring.mvc.static-path-pattern=/plumelog/**
#elasticsearch地址
es.esHosts=172.16.251.196:9200
#ES如果有密码,启用下面配置
#es.userName=elastic
#es.passWord=easylog123456
#管理密码,手动删除日志的时候需要输入的密码
admin.password=123456
(1)如果项目使用的log4j,引入
<dependency>
<groupId>com.plumelog</groupId>
<artifactId>plumelog-log4j</artifactId>
<version>2.2</version>
</dependency>
配置log4j配置文件,增加下面这个Appender
log4j.rootLogger = INFO,stdout,L
log4j.appender.stdout = org.apache.log4j.ConsoleAppender
log4j.appender.stdout.Target = System.out
log4j.appender.stdout.layout = org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern = [%-5p] %d{yyyy-MM-dd HH:mm:ss,SSS} [%c.%t]%n%m%n
#kafka做为中间件
#<!-- 字段说明 -->
#<!-- appName:应用名称 -->
#<!-- kafkaHosts:kafka集群地址 -->
#<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1-->
log4j.appender.L=com.plumelog.core.appender.KafkaAppender
#appName系统的名称(自己定义就好)
log4j.appender.L.appName=plumelog
log4j.appender.L.kafkaHosts=172.16.247.143:9092,172.16.247.60:9092,172.16.247.64:9092
#redis做为中间件
#字段说明
#<!-- appName:应用名称 -->
#<!-- redisHost:redis地址 -->
#<!-- redisPort:redis端口号 不配置,默认使用6379-->
#<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
log4j.appender.L=com.plumelog.log4j.appender.RedisAppender
log4j.appender.L.appName=plumelog
log4j.appender.L.redisHost=172.16.249.72
log4j.appender.L.redisPort=6379
#redis没有密码这一项为空或者不需要
#log4j.appender.L.redisAuth=123456
同理如果使用logback,和log4j2配置如下
<dependency>
<groupId>com.plumelog</groupId>
<artifactId>plumelog-logback</artifactId>
<version>2.2</version>
</dependency>
<appenders>
<!--使用redis启用下面配置-->
<!-- 字段说明 -->
<!-- appName:应用名称 -->
<!-- redisHost:redis地址 -->
<!-- redisPort:redis端口号 不配置,默认使用6379-->
<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
<!-- expand:整合其他链路插件,启用这个字段 expand=“sleuth” 表示整合springcloud.sleuth- -->
<appender name="plumelog" class="com.plumelog.logback.appender.RedisAppender">
<appName>plumelog</appName>
<redisHost>172.16.249.72</redisHost>
<redisAuth>123456</redisAuth>
<redisPort>6379</redisPort>
</appender>
<!-- 使用kafka启用下面配置 -->
<!-- 字段说明 -->
<!-- appName:应用名称 -->
<!-- kafkaHosts:kafka集群地址 -->
<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
<!-- expand:整合其他链路插件,启用下面配置 sleuth表示整合springcloud.sleuth- -->
<appender name="plumelog" class="com.plumelog.logback.appender.KafkaAppender">
<appName>plumelog</appName>
<kafkaHosts>172.16.247.143:9092,172.16.247.60:9092,172.16.247.64:9092</kafkaHosts>
</appender>
</appenders>
<!-- 上面两个配置二选一 -->
<!-- 日志输出级别 -->
<root level="INFO">
<appender-ref ref="plumelog" />
</root>
<dependency>
<groupId>com.plumelog</groupId>
<artifactId>plumelog-log4j2</artifactId>
<version>2.2</version>
</dependency>
<appenders>
<!-- 使用kafka启用下面配置 -->
<!-- 字段说明 -->
<!-- appName:应用名称 -->
<!-- kafkaHosts:kafka集群地址 -->
<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
<!-- expand:整合其他链路插件,启用下面配置 sleuth表示整合springcloud.sleuth- -->
<KafkaAppender name="kafkaAppender" appName="plumelog" kafkaHosts="172.16.247.143:9092,172.16.247.60:9092,172.16.247.64:9092" >
<PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] [%-5p] {%F:%L} - %m%n" />
</KafkaAppender>
<!--使用redis启用下面配置-->
<!-- 字段说明 -->
<!-- appName:应用名称 -->
<!-- redisHost:redis地址 -->
<!-- redisPort:redis端口号 不配置,默认使用6379-->
<!-- runModel:runModel 1,2 1表示最高性能模式,2表示低性能模式 但是2可以获取更多信息 不配置默认为1- -->
<!-- expand:整合其他链路插件,启用这个字段 expand=“sleuth” 表示整合springcloud.sleuth- -->
<RedisAppender name="redisAppender" appName="plumelog" redisHost="172.16.249.72" redisPort="6379" redisAuth="123456">
<PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] [%-5p] {%F:%L} - %m%n" />
</RedisAppender>
</appenders>
<!-- 上面两个配置二选一 -->
<loggers>
<root level="INFO">
<appender-ref ref="redisAppender"/>
</root>
</loggers>
普通日志使用
要想产生traceID,需要再拦截器里增加,如下:(也可以加载过滤器里,如果是定时任务放在定时任务的最前端)
@Component
public class Interceptor extends HandlerInterceptorAdapter{
private IdWorker worker = new IdWorker(1,1,1);//雪花算法,这边不一定要用这个生成id
@Override
public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) throws Exception {
TraceId.logTraceID.set(String.valueOf(worker.nextId()));//设置TraceID值,不埋此点链路ID就没有
return true;
}
}
spring cloud 项目引入sleuth
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
private static ExecutorService executorService = TtlExecutors.getTtlExecutorService(
new ThreadPoolExecutor(8, 8,0L, TimeUnit.MILLISECONDS,new LinkedBlockingQueue<Runnable>()));
//省去每次Runnable和Callable传入线程池时的修饰,这个逻辑可以在线程池中完成
executorService.execute(() -> {
logger.info("子线程日志展示");
});
private static ThreadPoolExecutor threadPoolExecutor= ThreadPoolUtil.getPool(4, 8, 5000);
threadPoolExecutor.execute(TtlRunnable.get(() -> {
TraceId.logTraceID.get();
logger.info("tankSay =》我是子线程的日志!{}", TraceId.logTraceID.get());
}));
springcloud(fegin)的分布式系统traceId传递,参考plumelog-rest项目
查询界面地址:http://demo.plumelog.com
访问这个地址产生测试log数据:http://demo.plumelog.com/demo/index?data=1234 data参数自己随便传,传什么打印什么
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。