2 日志采集模块打包部署--- (部署到服务器)
2.1 修改logback中的配置文件
<?xml version="1.0" encoding="UTF-8"?>
<configuration>
<property name="LOG_HOME" value="/opt/applog/gmall0105" />
<appender name="console" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<pattern>%msg%n</pattern>
</encoder>
</appender>
<appender name="rollingFile" class="ch.qos.logback.core.rolling.RollingFileAppender">
<file>${LOG_HOME}/app.log</file>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<fileNamePattern>${LOG_HOME}/app.%d{yyyy-MM-dd}.log</fileNamePattern>
</rollingPolicy>
<encoder>
<pattern>%msg%n</pattern>
</encoder>
</appender>
<!-- 将某一个包下日志单独打印日志 -->
<logger name="com.atguigu.gmall0105.logger.controller.LoggerController"
level="INFO" additivity="false">
<appender-ref ref="rollingFile" />
<appender-ref ref="console" />
</logger>
<root level="error" additivity="false">
<appender-ref ref="console" />
</root>
</configuration>
2.2 把打好的jar包拷贝到Linux 路径下 放入hadoop103中

2.3 启动jar包
1)首先启动
gmall0105-logger-0.0.1-SNAPSHOT.jar
java -jar /app/gmall0105/gmall0105-logger-0.0.1-SNAPSHOT.jar
如果出现权限问题,是因为Linux默认不允许非root账号使用1024以下的端口,所以改换为8082端口
java -jar /app/gmall0105/gmall0105-logger-0.0.1-SNAPSHOT.jar –server.port=8082 >/dev/null 2>&1 &
2)然后启动gmall2020-mock-log-2020-05-10.jar
修改
application.properties
# 外部配置打开 # logging.config=./logback.xml #业务日期 mock.date=2020-05-16 #模拟数据发送模式 mock.type=http #http模式下,发送的地址 mock.url=http://hadoop103:8082/applog #启动次数 mock.startup.count=10000 #设备最大值 mock.max.mid=50 #会员最大值 mock.max.uid=500 #商品最大值 mock.max.sku-id=10 #页面平均访问时间 mock.page.during-time-ms=20000 #错误概率 百分比 mock.error.rate=3 #每条日志发送延迟 ms mock.log.sleep=10 #商品详情来源 用户查询,商品推广,智能推荐, 促销活动 mock.detail.source-type-rate=40:25:15:20
启动
java -jar gmall2020-mock-log-2020-05-10.jar
2.4 再次测试kafka消费
/bigdata/kafka_2.11-0.11.0.2/bin/kafka-console-consumer.sh --bootstrap-server hadoop1:9092,hadoop2:9092,hadoop3:9092 --topic GMALL_STARTUP