今天主要学习了以下几个方面的内容:
1、JDK的安装,环境变量的配置
2、mysql的安装与配置,并且在Navicat中能进行连接
3、maven的介绍与简单演示
4、tomcat的安装与配置,tomcat manager的登录和配置
5、文件的权限设置
6、SSH的安装,两个虚拟机之间的互通,免密码登录
7、Hadoop的安装与配置
8、HDFS的安装与配置及使用
9、Ajax的介绍
其中,我在Tomcat的安装与配置、SSH的安装与配置以及Hadoop的安装与配置稍微做了一些记录与总结:
1、Tomcat:
1、解压Tomcat压缩包
2、修改文件名为Tomcat
3、进入Tomcat文件夹
4、进入bin目录
5、运行startup.sh,启动Tomcat 命令: ./startup.sh
6、浏览器输入自己的IP地址加上端口号8080.
7、配置manager:
找到Tomcat安装目录下conf目录下tomcat-users.xml文件,用notepad++打开,配置
<role rolename =“manager-gui”/>
<role rolename =“manager-script”/>
<user username =“tomcat”password =“144214”roles ="manager-gui,manager-script” /> 注意:这里可能会出错!!!引号什么的特别注意
8、重启Tomcat服务,先关闭再打开:
命令: ./shutdown.sh ./startup.sh
2、SSH:
1、安装ssh
yum install -y openssh-clients openssh-server
2、ssh-keygen -t rsa
3、回车
4、cd ~
5、ll
6、cd .ssh
7、ls
8、cp id_rsa.pub authorized_keys
9、ls
10、ssh 192.168.131.142 连自己
11、在server里也是这样设置
12、打开server2中,找到root文件夹中.ssh文件夹中的authorized_keys,在notepad++中打开,复制里面内容到server中的同样位置,保存。
13、在server2中输入命令
ssh 192.168.131.141(server的IP)
这次免密码登录。
3、Hadoop:
1、解压Hadoop文件夹
2、修改文件夹名为Hadoop
3、配置环境变量
4、进入hadoop,输入命令:cd /etc/profile.d/
然后输入命令:vi hadoop.sh
编辑:
HADOOP_HOME=/soft/hadoop
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_HOME PATH
保存
5、source hadoop.sh
6、输入hadoop version查看是否成功。
7、成功之后cd到hadoop,然后在输入命令:cd etc/
然后输入ls查看
然后再进入hadoop,再查看,有一堆的xml文件。
8、在soft目录下的hadoop目录下的etc目录下的hadoop目录下打开core-site.xml和hdfs-site.xml两个文件(同样是用notepad++)
然后在core-site.xml里面的configuration里面添加配置:
<property> <name>fs.defaultFS</name> <value>hdfs://192.168.131.142:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/hadoop/tmp</value> </property> 在hdfs-site.xml里面的configuration里面添加配置: <property> <name>dfs.namenode.name.dir</name> <value>/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/hadoop/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.permissions.enabled</name> <value>false</value> </property>
9、返回到shell界面,新建临时文件,输入命令:
mkdir -p /hadoop/tmp
mkdir -p /hadoop/dfs/name
mkdir -p /hadoop/dfs/data
10、进行格式化namenode
输入命令:hadoop namenode -format
11、启动:
cd /soft/hadoop
ls
cd sbin/
ls
start-dfs.sh
12、打开浏览器输入IP地址加上冒号50070(例如我的是192.168.131.142:50070)查看hdfs
13、可以通过命令在hdfs上新建文件(例如在hdfs上新建一个hadoop文件夹)
返回shell输入命令:hdfs dfs -mkdir /hadoop
14、可以在刚刚个网页上查看也可以输入命令:hdfs dfs -ls /
15、上传文件到hdfs:
我们在soft下新建一个abc.txt文件,然后输入命令:
hdfs dfs -put abc.txt /hadoop
把abc.txt文件传到hdfs里的hadoop文件夹里。