zoukankan      html  css  js  c++  java
  • 系统综合实践 第4次实践作业

    一、使用Docker-compose实现Tomcat+Nginx负载均衡
    1.创建docker_compose,在其中配置文件,结构如下

    (1)docker-compose

    (2)default.conf

    (3)运行compose

    (4)网页查看

    2.负载均衡测试
    (1)轮询策略
    编写脚本

    运行

    (2)权重策略
    修改default.conf

    编写脚本

    运行

    二、使用Docker-compose部署javaweb运行环境
    1.文件结构

    2.配置文件
    (1)docker-compose.yml

    (2)default.conf

    (3)/webapps/ssmgrogshop_war/WEB-INF/classes/jdbc.properties 修改ip和端口

    3.启动容器
    docker-compose up -d
    4.网页查看

    三、使用Docker搭建大数据集群环境
    1.创建并运行容器

    2.安装ssh
    ![](https://img2020.cnblogs.com/blog/1820862/202005/1820862-20200517181710620-1973125996.png
    3.开启sshd服务器

    4.修改bashrc:文件末尾添加/etc/init.d/ssh start

    5.实现免密登录


    6.安装jdk

    7.安装hadoop
    (1)将压缩包拷入容器
    sudo docker cp /home/cgh/hadoop-3.1.3.tar.gz 容器ID:/root/hadoop-3.1.3.tar.gz
    (2)进入容器
    docker restart 容器ID
    docker attach 容器ID
    (3)解压hadoop
    cd /root
    tar -zxvf hadoop-3.1.3.tar.gz -C /usr/local
    8.进行环境配置
    (1)修改内容:配置变量

    (2)使环境生效

    9.配置hadoop集群
    (1)修改以下配置

    (2)hadoop-env.sh
    在文件里添加 export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/
    (3)core-site.xml

    hadoop.tmp.dir file:/usr/local/hadoop-3.1.3/tmp Abase for other temporary directories. fs.defaultFS hdfs://master:9000 (4)hdfs-site.xml dfs.replication 1 dfs.namenode.name.dir file:/usr/local/hadoop-3.1.3/tmp/dfs/name dfs.datanode.data.dir file:/usr/local/hadoop-3.1.3/tmp/dfs/data dfs.permissions.enabled false (5)mapred-site.xml mapreduce.framework.name yarn yarn.app.mapreduce.am.env HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3 mapreduce.map.env HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3 mapreduce.reduce.env HADOOP_MAPRED_HOME=/usr/local/hadoop-3.1.3 (6)yarn-site.xml yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname Master yarn.nodemanager.vmem-pmem-ratio 2.5

    10.进入脚本目录(cd /usr/local/hadoop-3.1.3/sbin)
    (1)start-dfs.sh和stop-dfs.sh,添加下列参数
    HDFS_DATANODE_USER=root
    HADOOP_SECURE_DN_USER=hdfs
    HDFS_NAMENODE_USER=root
    HDFS_SECONDARYNAMENODE_USER=root
    (2)start-yarn.sh和stop-yarn.sh,添加下列参数
    YARN_RESOURCEMANAGER_USER=root
    HADOOP_SECURE_DN_USER=yarn
    YARN_NODEMANAGER_USER=root

    11.构件镜像
    docker commit 容器ID ubuntu/hadoop

    12.修改三个终端的hosts

    13.通过ssh,相互到达


    14.在Master上修改workers

    15.在master上格式化文件系统

    16.启动NameNode和DataNode服务并查看

    17.运行hadoop实例程序

    18.查看运行结果

  • 相关阅读:
    LeetCode对撞指针汇总
    167. Two Sum II
    215. Kth Largest Element in an Array
    2018Action Recognition from Skeleton Data via Analogical Generalization over Qualitative Representations
    题解 Educational Codeforces Round 84 (Rated for Div. 2) (CF1327)
    题解 JZPKIL
    题解 八省联考2018 / 九省联考2018
    题解 六省联考2017
    题解 Codeforces Round #621 (Div. 1 + Div. 2) (CF1307)
    题解Codeforces Round #620 (Div. 2)
  • 原文地址:https://www.cnblogs.com/silentstone/p/12906161.html
Copyright © 2011-2022 走看看