https://archive.apache.org/dist/flink/flink-1.7.2/
2、下载以后解压
tar -zxvf flink-1.7.2-bin-hadoop27-scala_2.11.tgz
3、解压以后配置一下环境变量
vim /etc/profile
在文件末尾直接变量
HADOOP_CLASSPATH='${HADOOP_HOME}/bin/hadoop classpath'
保存:wq
使环境变量生效:source /etc/profile
4、有时候虚拟机内存小,会有问题。yarn会检查虚拟机内存和你运行命令时设置的运行内存,会有问题报错。
所以配置一下yarn-site.xm
cd cd hadoop-2.7.7/etc/hadoop
vim yarn-site.xml
在configuration里追加
<property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>
5、先启动hadoop集群,配置了环境变量,所以在root根目录启动就行,如果不行,进入hadoop那个解压缩的文件,再执行
start-all.sh
jps,检查一下
6、然后进入到你解压的flink文件输入启动命令(三台虚拟机都要开着)
bin/yarn-session.sh -n 2 -jm 2048m -tm 1024m -d
-n 2 是俩结点
-jm 是jobManager的内存大小,也就是我的master结点内存
-tm 是taskManager的内存大小,也就是我的slaves结点的内存
-d 是后台启动的意思