zoukankan      html  css  js  c++  java
  • elasticSearch数据库、skywalking集群部署

    Centos6上面安装elasticsearc数据库的集群

    安装的是6.3.2版本,安装之前首先要先安装jdk1.8版本

    安装之前首先需要关闭防火墙

    Centos6
        sudo service iptables start/stop/status
        sudo chkconfig iptables off/--list  –永久关闭防火墙
    Centos7
        sudo systemctl stop/start/status firewalld.service
        sudo systemctl disable firewalld.service –永久关闭防火墙

    接下来关闭selinux

    查看Selinux的状态
    /usr/sbin/sestatus –v
    SELinux status:                 enabled
    如果SELinux status参数为enabled即为开启状态,需要进行下面的关闭操作。
    关闭SElinux
    sudo vim /etc/selinux/config
    在文档中找到SELINUX,将SELINUX的值设置为disabled,即:
    SELINUX=disabled
    在内存中关闭SElinux
    setenforce 0
    检查内存中状态
    getenforce
    如果日志显示结果为disabled或者permissive,说明操作已经成功。

    我们将elasticserach解压到/opt/elasticsearch目录

    mkdir -p /opt/elasticsearch
    tar -zxvf elasticsearch-6.3.2.tar.gz -C /opt/elasticsearch

    Elasearch的安装目录为:/opt/elasticsearch/elasticsearch-6.3.2

    现在我们在上面的三台机器上面安装elasticsearch的集群环境

    在192.168.42.113这台机器上面修改elasticSearch的配置文件修改elasticsearch.yml配置文件

    修改配置文件的内容如下:在elasticsearch.yml配置文件的末尾增加下面的内容:

    cluster.name: tipdm-es #es集群名称
    
    node.name: es-node3    #es节点名称,每个节点的名称不能相同
    
    node.master: true      #指定该节点是否有资格被选举成为master,默认是true
    
    node.data: true        #指定该节点是否存储索引数据,默认为true。
    
    network.host: 192.168.43.113  #节点的ip地址
    
    #设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点
    
    discovery.zen.ping.unicast.hosts: ["192.168.43.112", "192.168.43.113", "192.168.43.111"]
    
    #设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
    
    discovery.zen.minimum_master_nodes: 2 
    
    #如果要使用head,那么需要设置下面2个参数,使head插件可以访问es
    
    http.cors.enabled: true
    
    http.cors.allow-origin: "*"
    
    #这是Centos6不支持SecComp,而ES默认bootstrap.system_call_filter为true进行检测,所以导致检测失败,失败后直接导致ES不能启动。
    
    bootstrap.memory_lock: false
    
    bootstrap.system_call_filter: false
    
    #如果安装x-pack插件,我们取消他的basic认证,需要添加以下选项
    xpack.security.enabled: false
    xpack.ml.enabled: false
    path.data: /opt/elasticsearch/elasticsearch-6.3.2/data   #数据文件存储路径
    path.logs: /opt/elasticsearch/elasticsearch-6.3.2/logs    #log文件存储路径
    #elasticsearch备份位置,路径要手动创建
    path.repo: ["/opt/elasticsearch/elasticsearch-6.3.2/data/backups"]

     注意有的文章中

    network.host设置为0.0.0.0
    其他两台机器的配置内容同113 的配置一样,只需要修改节点名称和IP地址就可以了

    注意配置文件都是yml格式,key和value之间存在空格

    二者集群集群需要注意:并修改一下配置文件的node.name和network.host

    1、集群的名称在两个配置文件都一样都是cluster.name: tipdm-es #es集群名称

    2、集群中配置文件中端口都是一致的都是9200

    不同的地方在于每个集群中节点的名称不能一样并修改一下配置文件的node.name和network.host

    node.name: es-node2    #es节点名称,每个节点的名称不能相同

    network.host: 192.168.43.111  #节点的ip地址

    由于root用户启动elasticsearch会报错,所以要创建一个用户,这里创建elasticsearch用户,更改elasticsearch-6.3.2目录的所属用户和组为elasticsearch。执行如代码 2‑5所示的命令。

    useradd elasticsearch
    passwd elasticsearch
    chown -R elasticsearch:elasticsearch /opt/elasticsearch/

    此外为避免ES启动报错,需要调整一下系统设置。首先打开/etc/security/limits.conf

    vi /etc/security/limits.conf

    * soft nofile 65536
    * hard nofile 131072
    * soft nproc 2048
    * hard nproc 4096

    同时还需要修改vim /etc/sysctl.conf

    vi  /etc/sysctl.conf文件,在文件末尾添加“vm.max_map_count=655360”

    执行了上面的命令之后要执行接着执行命令“sysctl -p”更新上面的操作

    接下来就可以启动elasSearch数据库了,切换elasticsearch用户,启动测试,执行如代码 2‑6所示的命令

    每一台设备都要单独启动
    
    前台启动 
    $ ./elasticsearch 
    
    后台启动 -d为守护进程运行
    $ ./elasticsearch –d
    $ ./elasticsearch & # 使用这种方式他会打印日志在前台

    启动的时候如果报下面的错误

    unable to load JNA native support library, native methods will be disabled.
    java.lang.UnsatisfiedLinkError: Native library (com/sun/jna/linux-x86/libjnidispatch.so) not found

    解决办法如下,首先进入到elasticSearch的lib目录下

     我们看到该目录下存在一个jna-4.5.1.jar,整个jar包存在问题,我们要到官网上下载一个最新的jar包,然后上传到改lib目录下

    做之前我们先备份

     mv jna-4.5.1.jar jna-4.5.1.jar.bak  (以bin目录的文件为准,不一定是4.5.1)
     然后重新下载该文件  在lib目录内 :
     wget http://repo1.maven.org/maven2/net/java/dev/jna/jna/4.5.1/jna-4.5.1.jar  (根据你之前看到的版本号改动)

    这样elasticSearch集群就部署好了

    skywalking配置elasticSearch数据库集群的时候,配置如下就可以了,在skywalking的配置文件中如下

    elasticsearch:
        nameSpace: ${SW_NAMESPACE:"tipdm-es"}
        clusterNodes: ${SW_STORAGE_ES_CLUSTER_NODES:192.168.43.111:9200,192.168.43.112:9200,192.168.43.113:9200}
        user: ${SW_ES_USER:""}

    其中主要修改 clusterName 和 clusterNodes 要和上面配置的 elasticsearch 配置一致。

    接下来skywalking集群环境的搭建

    Skywalking集群部署首先要让zookeeper进行集群配置

    mkdir -p /opt/zookeeper
    tar -zxvf zookeeper-3.4.10.tar.gz -C /opt/zookeeper

    接下进行zookeer的集群配置,搭建zookeeper集群需要最少三台机器,需要安装jdk作为基础支持。此次使用的Zookeeper3.4.7版本

    进入conf目录,复制zoo-sample.cfg重命名为zoo.cfg,通过修改zoo.cfg来对zookeeper进行配置。这个名字固定写死,因为zookeeper启动会检查这个文件,根据这个配置文件里的信息来启动服务。

    mv zoo_sample.cfg  zoo.cfg
    vi zoo.cfg

    在文件的末尾添加下面的内容

    tickTime=2000
    initLimit=10
    syncLimit=5
    dataDir=/opt/zookeeper/data
    clientPort=2181
    server.1=192.168.43.111:2888:3888
    server.2=192.168.43.112:2888:3888
    server.3=192.168.43.113:2888:3888

    dataDir:指定zookeeper将数据保存在哪个目录下

    erver.1=xxx.xxx.xxx.xxx:2888:3888
    server.2=xxx.xxx.xxx.xxx:2888:3888
    server.3=xxx.xxx.xxx.xxx:2888:3888
    在配置文件末尾加上这三行,ip填写自己规划的ip即可,zookeeper服务默认的端口号为2888和3888,也可将/etc/hosts文件添加主机和ip映射,将此处的ip写成主机名称。

    说明:2888原子广播端口,3888选举端口,zookeeper有几个节点,就配置几个server。说明:2888原子广播端口,3888选举端口,zookeeper有几个节点,就配置几个server。

    接下来,到 到之前配置的zookeeper数据文件所在的目录下生成一个文件叫myid,之前的data目录在/opt/zookeeper/data在改目录下生成一个myid的文件

    到之前配置的zookeeper数据文件所在的目录下生成一个文件叫myid,其中写上一个数字表明当前机器是哪一个编号的机器。
    vim myid
    1
    注意:文件名称必须是myid,文件内容只需要一个数字即服务器列表中当前服务器的编号。1表示当前节点的变化,其他两个节点的编号就是2或3,不能与1相同

    3.拷贝
    将以上Zookeeper文件夹远程拷贝到另外两台服务器中:

    分发安装包
    #将配置好的zookeeper拷贝到其他节点

    scp -r ./zookeeper/ root@192.168.43.112:/opt
    scp -r ./zookeeper/ root@192.168.43.113:/opt
    然后修改另外两台服务器中的myid文件中的id即可。
    #yun02
    vim myid
    2

    #yun03
    vim myid
    3

    4、启动zookeeper
    启动zookeeper的各种命令操作如下,可以使用绝对路径操作这些命令,也可使用相对路径操作这些命令,相对路径需要进到zookeeper服务的bin目录进行操作。
    #启动ZK服务:
    bin/zkServer.sh start
    #停止ZK服务:
    bin/zkServer.sh stop
    #重启ZK服务:
    bin/zkServer.sh restart
    #查看ZK服务状态:
    bin/zkServer.sh status
    Zookeeper集群需要每台挨个启动。
    可以是用jps命令查看线程。
    启动集群的时候,集群数量启动没有超过一半,状态会有错误提示,当集群启动数量超过一半就会自动转为正常状态,并且此台使集群进入正常工作状态的服务器会成为leader角色,集群中其他服务器的角色为fllower。

    这样就表示zookeeper的集群部署成功了
    Zk 的集群搭建成功之后,接下来就是搭建skywalking collect集群

    这样就表示zookeeper的集群部署成功了
    Zk 的集群搭建成功之后,接下来就是搭建skywalking collect集群

    zk安装成功之后,接下来就要进行skywalking的安装

    我们下载6.3.0版本

    接下来,进行解压安装操作,执行下面的命令

    mkdir -p /opt/skywalking
    tar -zxvf apache-skywalking-apm-6.3.0.tar.gz -C /opt/skywalking

    第一步:接下来要修改skywalking collect的配置,配置ES 存储监控数据(推荐)

    将储存方式由 h2 修改为 elasticsearch:

     

     修改application.yml文件

    我们最好把application.yml文件下载到本地电脑上之后,再进行修改,修改完成之后在上传到服务器上面去,将h2数据库的信息注释掉,将elasticsearch数据库的信息打开,其中

     

     接下来elasticSearch数据库配置成功之后,接下来在aplication.yml文件中配置zk集群信息

    接下来要配置collect与zookeeper的信息

     这里一定要将standalone单节点整个信息注解掉,将zookeeper这个节点信息打开

    配置好之后将skywalking拷贝到其他节点上面

    [root@localhost opt]# scp -r ./skywalking/ root@192.168.43.113:/opt
    接下来就可以在192.168.43.111和192.168.43.113这两台机器上面启动skywalking了
    启动skywalking之前保证elasticsearch集群已经启动成功,zookeeper集群已经启动成功
    1、 验证首先保证elasticSerach集群成功

    2、再次保证zk集群启动成功

    3、接下来就可以启动skywalking的collect了

    启动有下面的两种方式

    第一种方式只启动collect服务

    启动collector服务
    #初始化
    cd /opt/skywalking/bin/
    ./oapServiceInit.sh
    
    #启动collector服务
    ./oapService.sh

    第二种方式

    You can use bin/startup.sh(or cmd) 

    这里skywalking的collect集群就搭建成功了

    接下来要配置的是skywalking的agent和web的配置

    探针的配置 修改agent.config配置如下:
    vim /opt/skywalking/agent/config/agent.config
    -------------------------------------------------------------
    agent.service_name=Your_ApplicationName  #改为你的项目名字
    collector.backend_service=192.168.43.111:11800   #collector的端口服务地址;
    logging.level=info

    单节点的地址就只配置一个collect的地址,如果是集群就要设置如下

    collector.backend_service=192.168.43.111:11800,192.168.43.113   #collector的端口服务地址;

    这里端口11800是agent与collect进行grpc协议通信的端口地址

    •    Storage, use H2 by default, in order to make sure, don't need further deployment.
    •    Backend listens 0.0.0.0/11800 for gRPC APIs and 0.0.0.0/12800 for http rest APIs. In Java, .NetCore, Node.js, Istio agents/probe, set the gRPC service address to ip/host:11800. (ip/host is where the backend at)
    •    UI listens 8080 port and request 127.0.0.1/12800 to do GraphQL query.

    接下来就可以启动agent

    3、启动Agent
    •    基于Tomcat的服务(SpringMvc)
    在tomcat的bin目录下的catalina.sh中增加如下命令行
    •    CATALINA_OPTS="$CATALINA_OPTS -javaagent:/opt/skywalking/agent/skywalking-agent.jar"
    export CATALINA_OPTS
    •    基于JAR file的服务(SpringBoot)
    在启动你的应用程序的命令行中添加 -javaagent 参数. 并确保在-jar参数之前添加它. 例如:
    java -javaagent:/opt/skywalking/agent/skywalking-agent.jar -jar yourApp.jar

    启动agent一定是绝对目录

    例如上面skywalking-agent.jar位于C:UsersAdministratorDesktopskywalkingdubboapache-skywalking-apm-6.1.0apache-skywalking-apm-binagent目录下,启动的时候

    会读取config目录下面的agent.confg配置文件

     一定要注意

    java -javaagent:后面一定要给skywalking-agent.jar的绝对目录,并且要保证skywalking-agent.jar能够读取到config目录下的agent.config配置文件,所以不要讲skywalking-agent.jar拷贝到
    其他目录,这样会导致skywalking-agent.jar启动的时候读取不到agent.config配置文件

    agent.config配置文件修改完成之后,接下来我们要修改skywalking的页面中webapp.xml的配置

    配置 Skywalking Web服务
    1、修改配置
    cd /opt/skywalking/webapp
    # 修改webapp.yml 文件配置如下:

    server:
      port: 8080
    collector:
      path: /graphql
      ribbon:
        ReadTimeout: 10000
        # Point to all backend's restHost:restPort, split by ,
        listOfServers: 192.168.43.111:12800,192.168.43.113:12800
    security:
      user:
        # username
        admin:
          # password
          password:  <your_pass>    #此处修改你的网站管理员密码

    这里12800就是collect 暴露出来让页面UI查询收集的数据的端口,页面通过path: /graphql这个接口来访问,页面访问的时候通过ribbon负载均衡的策略随机的访问到某一台collect,这里可以配置ribbon访问collect的超时时间ReadTimeout: 10000

    这样整个skywalking和elasticSearch数据库的集群就设置完成了。

    还要下面几个注意点需要特别的注意:

    注意点:
    关于采样设置的一点注意事项

    关于服务采样配置的一点建议,如果Collector以集群方式部署,比如:Acollector和Bcollector,建议Acollector.sampleRate = Bcollector.sampleRate。如果采样率设置不相同可能会出现数据丢失问题。

     

    假设Agent端将所有数据发送到后端Collector处,A采样率设置为30%,B采样率为50%。

    假设有30%的数据,发送到A上,这些数据被全部正确接受并存储,极端情况(与期望的采样数据量相同)下,如果剩下20%待采样的数据发送到了B,这个时候一切都是正常的,如果这20%中有一部分数据被送到了A那么,这些数据将是被忽略的,由此就会造成数据丢失。

    设定采样率在application.yml中的receiver-trace接受者中,你可以找到sampleRate设置。

     此外还有需要注意的是:需要特别注意的是:elasticSearch服务器的时候必须和安装skywalking collect、agent服务器的时间

    保持一致否则会出现数据无法出来的问题,1. 修改系统的时区,保证skywalking colle、和客户端的Agent的、elasticSearch数据库三者的时区保持一致

    接下来我们搭建apollo的集群环境

    Apollo分布式配置中心部署以及使用,第一步到官网上面去下载apollo ,https://github.com/ctripcorp/apollo

    比较重要的几个项目:
    • apollo-configservice:提供配置获取接口,提供配置更新推送接口,接口服务对象为Apollo客户端
    • apollo-adminservice:提供配置管理接口,提供配置修改、发布等接口,接口服务对象为Portal,以及Eureka
    • apollo-portal:提供Web界面供用户管理配置
    • apollo-client:Apollo提供的客户端程序,为应用提供配置获取、实时更新等功能

    上图简要描述了配置发布的大致过程:
    • 用户在Portal操作配置发布
    • Portal调用Admin Service的接口操作发布
    • Admin Service发布配置后,发送ReleaseMessage给各个Config Service
    • Config Service收到ReleaseMessage后,通知对应的客户端

     这里我们直接下载安装包,不通过源码进行构建

     我们可以看到可以直接使用的安装包有上面的三个,一个是adminService、一个是configservice。一个是portal首页

    Apoll安装的时候对数据库有要求
    Mysql要求5.6.5版本以上
    Java jdk要求 1.8以上
    接下来我们安装数据库

    Apollo服务端共需要两个数据库:ApolloPortalDB和ApolloConfigDB,其中portal进程使用数据库ApolloPortalDB,adminService和configservice共用数据库ApolloConfigDB

    需要注意的是ApolloPortalDB只需要在生产环境部署一个即可,而ApolloConfigDB需要在每个环境部署一套,如fat、uat和pro分别部署3套ApolloConfigDB。

    我们先来看集群部署需要注意的事项

     上面首先由两套环境uat、dev两个环境:

    1、第一点每一套环境需要对于不同的ApolloConfigDB数据库,uat要新建一个ApolloConfigDB,dev需要创建部署一个ApolloConfigDB数据库

    2、Portal部署在生产环境的机房,通过它来直接管理FAT、UAT、PRO等环境的配置,uat和dev环境可以共用一个ApolloPortalDB数据库,所有的环境都通用一个ApolloPortalDB数据库

    3、上面的uat环境中,如果现在有两台服务server1和serve2,我们要在这两台机器上面实现集群,我们这样做

    Meta Server和Config Service部署在同一个JVM进程内,Admin Service部署在同一台服务器的另一个JVM进程内

    在server1上面运行一个config service的进程,运行一个admin service的进程

    在server2上面运行一个config service的进程,运行一个admin service的进程

    这样集群就部署好了,对于potal首页的进程,我们也可以部署多个进程,但是这些进程都是访问同一个数据库

     集群部署好了之后,我们需要做对于的配置

    分布式部署的时候,apollo-configservice和apollo-adminservice需要把自己的IP和端口注册到Meta Server(apollo-configservice本身)。

    Apollo客户端和Portal会从Meta Server获取服务的地址(IP+端口),然后通过服务地址直接访问。

    接下来我们开始创建数据库

    创建ApolloPortalDB,可以根据实际情况选择通过手动导入SQL,文件位于

    以MySQL原生客户端为例:
    source /your_local_path/portaldb/V1.0.0__initialization.sql

    我们用Navicat执行该脚本

    这里portal首页对于的数据库就创建成功了

     接下来创建ApolloConfigDB,可以根据实际情况选择通过手动导入SQL

    scripts/db/migration/configdb/V1.0.0__initialization.sql
    以MySQL原生客户端为例:
    source /your_local_path/configdb/V1.0.0__initialization.sql

    这里两个数据库就创建成功了
    注意:注:ApolloConfigDB需要在每个环境部署一套,如fat、uat和pro分别部署3套ApolloConfigDB,PortalConfigDB fat、uat和pro三者共用一个数据库,不需要部署多套
    在数据库安装完成之后,在正式部署之前,需要对数据库中的一些具体的参数进行调整,Apollo自身的一些配置是放在数据库里面的,所以需要针对实际情况做一些调整。

    调整ApolloPortalDB配置
    配置项统一存储在ApolloPortalDB.ServerConfig表中,也可以通过管理员工具 - 系统参数页面进行配置,无特殊说明则修改完一分钟实时生效。
    1.apollo.portal.envs - 可支持的环境列表
    默认值是dev,如果portal需要管理多个环境的话,以逗号分隔即可(大小写不敏感),如:
    DEV,FAT,UAT,PRO

    如果还有支持FAT环境,设置为如下

     现在首页要管理多个环境,需要做下面的配置

    1、只在数据库添加环境是不起作用的,还需要为apollo-portal添加新增环境对应的meta server地址

    Apollo Portal需要在不同的环境访问不同的meta service(apollo-configservice)地址,所以我们需要在配置中提供这些信息。默认情况下,meta service和config service是部署在同一个JVM进程,所以meta service的地址就是config service的地址。

    使用程序员专用编辑器(如vim,notepad++,sublime等)打开apollo-portal-x.x.x-github.zip中config目录下的apollo-env.properties文件。

    假设DEV的apollo-configservice未绑定域名,地址是1.1.1.1:8080,FAT的apollo-configservice绑定了域名apollo.fat.xxx.com,UAT的apollo-configservice绑定了域名apollo.uat.xxx.com,PRO的apollo-configservice绑定了域名apollo.xxx.com,那么可以如下修改各环境meta service服务地址,格式为${env}.meta=http://${config-service-url:port},如果某个环境不需要,也可以直接删除对应的配置项(如lpt.meta):

    dev.meta=http://1.1.1.1:8080
    fat.meta=http://apollo.fat.xxx.com
    uat.meta=http://apollo.uat.xxx.com
    pro.meta=http://apollo.xxx.com

    注意dev中config service也可以部署多个实现集群,这里需要将配置修改为

    http://1.1.1.1:8080,http://2.2.2.2:8080

    2、apollo-client在新的环境下使用时也需要做好相应的配置

    通过Spring Boot的配置文件
    可以在Spring Boot的application.properties或bootstrap.properties中指定apollo.meta=http://config-service-url

    2.organizations - 部门列表
    Portal中新建的App都需要选择部门,所以需要在这里配置可选的部门信息,样例如下:

    [{"orgId":"TEST1","orgName":"样例部门1"},{"orgId":"TEST2","orgName":"样例部门2"}]

    接下来,我们需要调整 调整ApolloConfigDB配置的配置,重点在于修改ServerConfig表中,修改完成后生效

    不同的环境需要对自己环境的ApolloConfigDB数据库下面的ServerConfig表进行修改

     主要是在表中配置注册中心的地址。就是config service进程的地址,默认config service端口是8080,如果dev上面部署了多个config  serice进程

    上面数据库表中填写如下:

    在DEV环境的ApolloConfigDB.ServerConfig表中设置eureka.service.url为:中间用逗号隔开
    http://1.1.1.1:8080/eureka/,http://2.2.2.2:8080/eureka/

    注意这里在数据库中一定要填写本环境中全部config service进程的地址

    注1:这里需要填写本环境中全部的eureka服务地址,因为eureka需要互相复制注册信息

    注2:注2:如果希望将Config Service和Admin Service注册到公司统一的Eureka上,那这里就要填写公司统一的Eureka集群的地址,不要忘了/eureka/

    不过有些公司自己已经有了一套Eureka,如果希望把Apollo的Config Service和Admin Service也注册过去实现统一管理的话,可以按照如下步骤操作:

    1. 配置Config Service不启动内置Eureka Server

    1.1 1.5.0及以上版本

    为apollo-configservice配置apollo.eureka.server.enabled=false即可,通过bootstrap.yml或-D参数等方式皆可。

    1.2 1.5.0之前的版本

    修改com.ctrip.framework.apollo.configservice.ConfigServiceApplication,把@EnableEurekaServer改为@EnableEurekaClient

    @EnableEurekaClient
    @EnableAspectJAutoProxy
    @EnableAutoConfiguration // (exclude = EurekaClientConfigBean.class)
    @Configuration
    @EnableTransactionManagement
    @PropertySource(value = {"classpath:configservice.properties"})
    @ComponentScan(basePackageClasses = {ApolloCommonConfig.class,
        ApolloBizConfig.class,
        ConfigServiceApplication.class,
        ApolloMetaServiceConfig.class})
    public class ConfigServiceApplication {
      ...
    }

    2. 修改ApolloConfigDB.ServerConfig表中的eureka.service.url,指向自己的Eureka地址

    比如自己的Eureka服务地址是1.1.1.1:8761和2.2.2.2:8761,那么就将ApolloConfigDB.ServerConfig表中设置eureka.service.url为:

    http://1.1.1.1:8761/eureka/,http://2.2.2.2:8761/eureka/
    

    需要注意的是更改Eureka地址只需要改ApolloConfigDB.ServerConfig表中的eureka.service.url即可,不需要修改meta server地址。默认情况下,meta service和config service是部署在同一个JVM进程,所以meta service的地址就是config service的地址,修改Eureka地址时不需要修改meta server地址。

    3、接下来要修改config service 进程访问数据库的配置,配置apollo-configservice的数据库连接信息

    解压apollo-configservice-x.x.x-github.zip
    用程序员专用编辑器(如vim,notepad++,sublime等)打开config目录下的application-github.properties文件
    填写正确的ApolloConfigDB数据库连接串信息,注意用户名和密码后面不要有空格!
    修改完的效果如下:

    # DataSource
    spring.datasource.url = jdbc:mysql://localhost:3306/ApolloConfigDB?useSSL=false&characterEncoding=utf8
    spring.datasource.username = someuser
    spring.datasource.password = somepwd

    注:由于ApolloConfigDB在每个环境都有部署,所以对不同的环境config-service需要配置对应环境的数据库参数

    4.配置apollo-adminservice的数据库连接信息

    解压apollo-adminservice-x.x.x-github.zip
    用程序员专用编辑器(如vim,notepad++,sublime等)打开config目录下的application-github.properties文件
    填写正确的ApolloConfigDB数据库连接串信息,注意用户名和密码后面不要有空格!
    修改完的效果如下:

    # DataSource
    spring.datasource.url = jdbc:mysql://localhost:3306/ApolloConfigDB?useSSL=false&characterEncoding=utf8
    spring.datasource.username = someuser
    spring.datasource.password = somepwd

    注:由于ApolloConfigDB在每个环境都有部署,所以对不同的环境admin-service需要配置对应环境的数据库参数

    5.配置apollo-portal的数据库连接信息

    解压apollo-portal-x.x.x-github.zip
    用程序员专用编辑器(如vim,notepad++,sublime等)打开config目录下的application-github.properties文件
    填写正确的ApolloPortalDB数据库连接串信息,注意用户名和密码后面不要有空格!
    修改完的效果如下:

    spring.datasource.url = jdbc:mysql://localhost:3306/ApolloPortalDB?useSSL=false&characterEncoding=utf8
    spring.datasource.username = someuser
    spring.datasource.password = somepwd

    上面就完成全部的配置了,接下来我们就可以启动apollo了

    我们首先启动config service进程

     然后在启动admin service 进程,最后在去启动portal,apollo启动成功之后数据会默认放在/opt目录,所以一定要保证该目录具有可读写权限

  • 相关阅读:
    (4.24~4.30)
    (4.17~4.23)
    (4.10~4.16)
    FFT题集
    kd树的构造与搜索
    schtasks命令
    关于[WinError 10054] 远程主机强迫关闭了一个现有的连接。
    数据去重复
    将ppt文档转换成pdf
    mvc上传
  • 原文地址:https://www.cnblogs.com/kebibuluan/p/11643900.html
Copyright © 2011-2022 走看看