编译安装vsftpd (基于Arch linux)

依赖:

  • rpcsvc-proto-1.4.2
1
2
3
./configure --sysconfdir=/etc
make
make install
  • libtirpc-1.3.2
    1
    2
    3
    ./configure --prefix=/usr --sysconfdir=/etc --disable-static --disable-gssapi
    make
    make install
  • libnsl-1.3.0
1
2
3
4
autoreconf -fi
./configure --sysconfdir=/etc
make
make install

编译安装vsftpd

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
install -v -d -m 0755 /usr/share/vsftpd/empty &&
install -v -d -m 0755 /home/ftp &&
groupadd -g 47 vsftpd &&
groupadd -g 45 ftp &&

useradd -c "vsftpd User" -d /dev/null -g vsftpd -s /bin/false -u 47 vsftpd &&
useradd -c anonymous_user -d /home/ftp -g ftp -s /bin/false -u 45 ftp

# 如果你是gcc-10以及以上的gcc版本,会出现隐式类型转换失败的错误,让它显式转换:
sed -e "s/kVSFSysStrOpenUnknown;/(enum EVSFSysUtilOpenMode)&/" -i sysstr.c
make
install -v -m 755 vsftpd /usr/sbin/vsftpd &&
install -v -m 644 vsftpd.8 /usr/share/man/man8 &&
install -v -m 644 vsftpd.conf.5 /usr/share/man/man5 &&
install -v -m 644 vsftpd.conf /etc

基于CentOS7的虚拟机联网手册

基于Centos7的Vmware虚拟机联网手册

首先你的主机网络一定要畅通,不然下面的操作毫无意义

一.检查VMware的虚拟机网络设置

首先它必须是能够选择的,而不是灰色的,灰色意味着你的Vmware可能有问题,或者你的网络适配器没有启用

img

然后点击这个NAT Settings

img

接下来是重点,你需要牢牢记住这个界面的这些信息,它们是你联网是否成功的关键!!

img

记住上面的IP, 子网掩码 ,网关

二. 打开centos7虚拟机,进入终端,关闭防火墙,打开ssh服务

1
2
3
4
systemctl stop firewalld
systemctl disable firewalld
systemctl start sshd
systemctl enable sshd

三. 编辑网卡配置文件

vi /etc/sysconfig/network-scripts/ifcfg-ens33

img

这个文件里,你需要更改的地方有几个

  1. BOOTPROTO=static
  2. IPADDR=172.16.254.80 这个IP是根据你的NAT Settings里的那个IP决定的,不要照抄,最后一位尽量设置后一点,比如 172.16.254. 111 或者172.16.254 . 123
  3. ONBOOT=yes
  4. NETMASK=255.255.255.0 这里照抄NAT Settings里的掩码即可
  5. GATEWAY=172.16.254.2 这里也要照抄NAT Settings里的GATEWAY
  6. DNS1=114.114.114.114 我选择电信的域名解析服务
以上配置完成以后,保存退出,重启虚拟机。

顺利的话,你现在可以用xshell登录了

Centos7安装weblogic14(Headless Mode)

Centos7安装weblogic14(Headless Mode)

首先要安装xorg服务

1
yum groupinstall "X Window System"

然后配置好用户这些

1
2
3
4
5
6
7
8
9
groupadd weblogic

mkdir /home/weblogic

useradd -m -g weblogic weblogic -d /home/weblogic

passwd weblogic

chown -R weblogic:weblogic /home/weblogic

接着切换用户

1
su weblogic

然后配置好该用户的环境变量,把jdk1.8和fmw_14.1.1.0.0_wls_lite_generic.jar都放在/home/weblogic下

然后配置环境变量

1
2
3
4
export JAVA_HOME=/home/weblogic/jdk
export CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$PATH
export DISPLAY=:0

然后保存生效

1
source ~/.bash_profile

然后创建好几个目录 oracle_home oraInventory

1
mkdir oracle_home oraInventory

然后编辑文件

1
vi wls.rsp

把下面的内容复制进去

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
[ENGINE]
#DO NOT CHANGE THIS.
Response File Version=1.0.0.0.0
[GENERIC]
#The oracle home location. This can be an existing Oracle Home or a new Oracle Home
ORACLE_HOME=/home/weblogic/oracle_home
#Set this variable value to the Installation Type selected. e.g. WebLogic Server, Coherence, Complete with Examples.
INSTALL_TYPE=WebLogic Server
#Provide the My Oracle Support Username. If you wish to ignore Oracle Configuration Manager configuration provide empty string for user name.
#MYORACLESUPPORT_USERNAME=
#Provide the My Oracle Support Password
#MYORACLESUPPORT_PASSWORD=<SECURE VALUE>
DECLINE_SECURITY_UPDATES=true
#Set this to true if My Oracle Support Password is specified
SECURITY_UPDATES_VIA_MYORACLESUPPORT=false
#Provide the Proxy Host
#PROXY_HOST=
#Provide the Proxy Port
#PROXY_PORT=
#Provide the Proxy Username
#PROXY_USER=
#Provide the Proxy Password
#PROXY_PWD=<SECURE VALUE>
#COLLECTOR_SUPPORTHUB_URL=

然后编辑文件

1
2
3
4
5
6
vi oraInst.loc

inventory_loc=/home/weblogic/oraInventory
inst_group=weblogic


最后运行

1
java -jar  fmw_14.1.1.0.0_wls_lite_generic.jar -silent -responseFile /home/weblogic/wls.rsp  -invPtrLoc /home/weblogic/oraInst.loc

应该就大功告成了!

img

Hadoop环境搭建教程

《Hadoop环境搭建教程》

  1. 搭建linux基本环境(VMware虚拟机)

img

这里使用的是VMware16,镜像使用CentOS-7-x86_64-Minimal-2009.iso

可以在中科大镜像站获得http://mirrors.ustc.edu.cn/centos/7/isos/x86_64/

这里选择Minimal(最小化)是因为我们用不到图形界面,仔细一想服务器几乎都是没有显卡的,谁会装图形界面呢?

img

首先我们点击创建虚拟机

img

img

你已经是个成熟的开发人员了,要学会自己定义安装的东西了。

img

img

这里直接下一步

img

这里点第二个,我们就可以用旁边的浏览按钮去找我们需要的linux镜像了。

img

选好了就可以下一步了

img

名字和路径可以自己选择

img

这里一般默认是1个处理器也就是1核,然后选择2个线程。

img

img

内存的话推荐内存就好了,看你自己的内存实际大小酌情增加或减少

img

这里我们默认选择NAT

img

这里默认推荐的就好

img

这里也用推荐的就OK

img

这里直接下一步

img

这里20G就够了,然后最好选择存储为单个文件

img

然后直接下一步就好了

这时候虚拟机会自动打开,然后等待它进入选择语言的安装界面就好了,但是这里语言绝对要记得选英文,因为没有图形界面的linux系统是不会显示中文的,英文不好的同学就有点痛苦了吧,但是没有办法呀。

img

这里我们直接点右下角的continue 继续

img

然后这里我们直接点这个安装目标磁盘

img

进去以后直接点左上角的done,它会默认分好给你

img

最后点Begin Installation就可以让它自己安装了

img

但这里需要去设置root用户密码,旁边的那个创建用户可以不管,因为目前阶段来说没有什么太大用处。(真就化身root敢死队)

img

这里我设置的是123,但是linux不建议使用太简单的密码,所以这里你会发现点一次Done没有退出去,所以你需要连点两次Done

img

那么现在你就可以等待它安装完成然后点击reboot重启了。

接下来因为我懒,所以直接copy之前写的联网手册了。

基于Centos7的Vmware虚拟机联网手册

首先你的主机网络一定要畅通,不然下面的操作毫无意义

一.检查VMware的虚拟机网络设置

首先它必须是能够选择的,而不是灰色的,灰色意味着你的Vmware可能有问题,或者你的网络适配器没有启用

img

然后点击这个NAT Settings

img

接下来是重点,你需要牢牢记住这个界面的这些信息,它们是你联网是否成功的关键!!

img

记住上面的IP, 子网掩码 ,网关

二. 打开centos7虚拟机,输入用户名和密码,注意,linux下密码是默认看不见的,所以敲对了回车就好,进入终端,关闭防火墙,打开ssh服务,输入以下命令,一条一条回车执行

1
2
3
4
systemctl stop firewalld
systemctl disable firewalld
systemctl start sshd
systemctl enable sshd

三. 编辑网卡配置文件

vi /etc/sysconfig/network-scripts/ifcfg-ens33

img

这个文件里,你需要更改的地方有几个

  1. ​ BOOTPROTO=static
  2. ​ IPADDR=172.16.254.80 这个IP是根据你的NAT Settings里的那个IP决定的,不要照抄,最后一位尽量设置后一点,比如 172.16.254. 111 或者172.16.254 . 123
  3. ​ ONBOOT=yes
  4. ​ NETMASK=255.255.255.0 这里照抄NAT Settings里的掩码即可
  5. ​ GATEWAY=172.16.254.2 这里也要照抄NAT Settings里的GATEWAY
  6. ​ DNS1=114.114.114.114 我选择电信的域名解析服务
以上配置完成以后,按 :wq保存退出,重启虚拟机。

顺利的话,你现在可以用xshell登录了

二.Hadoop环境搭建

一.环境搭建

1.虚拟机:VMware (默认你已经有了,并且知道怎么使用)

2.Hadoop-2.10.1的包(可以去官方下载,也可以选择各大高校的镜像站下载,例如:http://mirrors.ustc.edu.cn/apache/hadoop/core/ 中国科学技术大学镜像站)

3.JDK的包 (oracle官网下载或者其他任意方式下载都行,但注意扩展格式需为.tar.gz)

4.将以上两个包通过任意门传送进虚拟机的linux系统内然后解压到你喜欢的目录下吧,最好是/usr/下,方便统一管理。

5.网络配置默认你已经配置完成了,这里就不赘述了,因为我懒

二. 环境配置

在/etc/profile里添加环境变量(/etc目录的修改必然需要使用root权限)

1
2
3
4
export JAVA_HOME=/usr/share/java #写你的jdk的目录
export HADOOP_HOME=/usr/hadoop #写你的hadoop目录
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin:$PATH

写完以后,保存退出,输入命令回车:

1
$ source /etc/profile

如果在这个时候发现一些基础的linux系统命令无法使用了,大概率是你的环境变量配置得有问题,先在终端输入:

1
export PATH=/usr/bin:$PATH

以暂时能够使用一些基本命令,然后回到刚才修改的文件里看看是不是有哪里打错了

使用以下命令检查hadoop是否能够正常运作:

1
$ hadoop version

如果输出 command not found 那就是还没有配置好,但是基本上不会出现这样的情况

三. Hadoop单机版搭建

单机版不需要搭建,直接启动就是了

四. Hadoop伪分布式搭建

1.伪分布式的意思就是一个主机它既充当NameNode,又充当DataNode.

2.伪分布式只需要一台主机就能够完成.

3.hadoop下比较重要的两个目录分别是/sbin和/etc/hadoop,/sbin目录下有启动hadoop不同服务的各种脚本命令,而/etc/hadoop下都是hadoop的配置文件,需要配置的文件一共有如下几个:

  • hadoop-env.sh # hadoop 环境,需要在这里添加jdk的目录
  • core-site.xml # hadoop 核心设置
  • hdfs-site.xml # hadoop hdfs文件系统设置
  • yarn-site.xml # yarn 资源管理设置
  • mapred-site.xml # mapreduce hadoop计算系统设置

hadoop-env.sh只需要在末尾加上jdk的环境变量即可

core-site.xml配置如下:

1
2
3
4
5
6
7
8
9
10
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop/tmp</value> ##这里的地址都是在$HADOOP_HOME目录下的
</property>
</configuration>

hdfs-site.xml配置如下:

1
<configuration>         <property>              <name>dfs.replication</name>              <value>1</value>                    ## 因为是伪分布式,所以这里写一个就好了         </property>         <property>              <name>dfs.namenode.name.dir</name>              <value>/usr/hadoop/data/name</value>         </property>         <property>              <name>dfs.datanode.data.dir</name>              <value>/usr/hadoop/data/data</value>         </property> </configuration>

yarn-site.xml配置如下:

1
<configuration> <!-- Site specific YARN configuration properties -->         <property>                <name>yarn.nodemanager.aux-services</name>                <value>mapreduce_shuffle</value>         </property>         <property>         <name>yarn.resourcemanager.hostname</name>         <value>master</value>     </property> <property>  <name>yarn.resourcemanager.address</name>    <value>master:18040</value>  </property>  <property>    <name>yarn.resourcemanager.scheduler.address</name>    <value>master:18030</value>  </property>  <property>    <name>yarn.resourcemanager.webapp.address</name>    <value>master:18088</value>  </property>  <property>    <name>yarn.resourcemanager.resource-tracker.address</name>    <value>master:18025</value>  </property>  <property>    <name>yarn.resourcemanager.admin.address</name>    <value>master:18141</value>  </property>  <property>     <name>yarn.nodemanager.aux-services</name>     <value>mapreduce_shuffle</value>  </property>  <property>      <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>      <value>org.apache.hadoop.mapred.ShuffleHandler</value>  </property> </configuration>

mapred-site.xml默认是没有的,但是有个template文件,把它拿过来用就好了:

cp mapred-site.xml.template mapred-site.xml

然后配置一下:

1
<configuration>       <property>             <name>mapreduce.framework.name</name>             <value>yarn</value>         </property>         <property>             <name>mapreduce.jobhistory.address</name>             <value>master:10020</value>      </property>     </configuration>  

最后需要配置一下salves文件,在slaves文件里把第一行的localhost去掉,然后添加:

1
master

原本master是不应该出现在这个文件里的,但由于这是伪分布式,所以把master写进去就好了。

以上配置完成后可以进入$HADOOP_HOME/下,把刚才的目录创建好:

1
2
3
$ mkdir data tmp
$ cd data
$ mkdir data name

然后进入$HADOOP_HOME/sbin/目录,执行命令:

1
$ hdfs namenode -format  # 其实 hadoop namenode -format也行的

初始化hadoop系统,如果在靠近结束处看到输出 successfully 的单词,意思就是初始化成功了。

接下来可以启动hadoop系统试试看:

1
$ sh start-all.sh

这个时候可能会出现要你输入yes的fingerprint,然后还可能要你输入master的密码,输入就是了。

等待启动工作结束以后,输入:

1
$ jps

这个时候输出的结果应该要包含:

1
2
3
4
5
6
7
8
9
10
11
NameNode

NodeManager

DataNode

jps

ResourceManager

SecondaryNameNode

如果都有恭喜你成功搭建好了hadoop伪分布式系统,可以登陆浏览器输入http://master:50070(此处的master替换为你的master的ip地址)

你会看到有一个Live Nodes,那就是你的master了

五. Hadoop 完全分布式搭建

根据上面伪分布式搭建的步骤,只有几个需要修改的地方:

  1. ​ 在hdfs-site.xml里将副本数量由1改为你的从机数量
  2. ​ 将slaves的文件删除master自身,修改为你所有的从机的名字或是ip地址

Spark环境安装

一. 解压 spark 压缩包到本地

$ tar -xvf (或者 -zxvf) spark-3.1.1.tar.gz # 具体包名是你实际下载的包的名字
$ mv spark-3.1.1 spark # 改名,可省略

img

img

二. 配置spark环境变量

(1) 可以配置全局变量,也可选择只配置本地变量

vi /etc/profile 或 vi ~/.bash_profile (千万不要遗漏 ~号)

export SPARK_HOME=/root/software/spark
export PATH=$SPARK_HOME/bin:$PATH

img

img

三.配置spark (目录在$SPARK_HOME/conf 下)

$ cd $SPARK_HOME/conf

img

(1) 编辑 spark-env.sh.template,先将其复制一份,改为 spark-env.sh

# 1. 配置java
export JAVA_HOME=/root/jdk1.8.0_171
# 2. 配置scala
export SCALA_HOME=/root/scala-2.11.7
# 3. 配置hadoop
export HADOOP_HOME=/root/hadoop-2.7.7
# 4.hadoop配置文件路径
export HADOOP_CONF_DIR=/root/hadoop-2.7.7/etc/hadoop
# 5.spark master的主机
export SPARK_MASTER_IP=master # 192.168.80.111
export SPARK_MASTER_PORT=7077
# 6.设置一个工人的内存使用大小
export SPARK_WORKER_MEMORY=4g
# 7.设置一个工人所需要的核心数
export SPARK_WORKER_CORES=2
# 8.设置工人实例化的数量(每台机器的工人数)
export SPARK_WORKER_INSTANCES=1

# 如果你同时在用hbase的话
export SPARK_CLASSPATH=$HBASE_HOME/lib/hbase-protocol-1.2.4.jar:$HBASE_HOME/lib/hbase-common-1.2.4.jar:$HBASE_HOME/lib/htrace-core-3.1.0-incubating.jar:$HBASE_HOME/lib/hbase-server-1.2.4.jar:$HBASE_HOME/lib/hbase-client-1.2.4.jar:$HBASE_HOME/lib/metrics-core-2.2.0.jar:$SPARK_CLASSPATH

img

img

(2)编辑 slaves.template, 该文件在spark3.0版本以后已经更名为workers.template, slave这个词并不友好啊…

$ cp slaves.template slaves # spark 2.x
$ cp workers.template workers # spark 3.x

编辑这个文件

# localhost 删除或注释这行
s1
s2
#添加所有子节点

img

一切准备就绪后,把spark分发到你的所有节点上, 配置就完成了

img

虚拟机LVM扩容指南

虚拟机LVM扩容指南

1.首先把虚拟机的磁盘扩容,多少看你心情

2.进入虚拟机,打开终端,用root操作

3.先把新的空间分个区

1
2
3
4
5
fdisk /dev/sda
# 进入fdisk以后,输入n,建立新分区,一直回车就是了
#建好了以后,按p查看一下大小,记住这个大小,例如我分配了10G,那这个新分区就是10G的
#接着按t,然后选择一个分区,默认是最后一个,就回车,然后写上 8e 回车,这个是lvm的分区编号
#按w 保存退出 fdisk

4.重启系统,让新分区生效

5.把新分区加入到lvm里

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# 建立新的pv卷
pvcreate /dev/sda3
# 查看pv信息,加入到你已有的lvm组里
pvdisplay
# 找到那个pv组名
vgextend centos /dev/sda3
#扩容,这个分区是你想要扩容的名字,一般都会比你扩大的容量稍微小一点,10G就写9.9G
lvextend -L +9.9G /dev/mapper/centos-root
#查看你的文件系统格式
df -hT
#如果是xfs
xfs_growfs /dev/mapper/centos-root
#如果是ext4
resize2fs /dev/mapper/centos-root

6.完成!