登陆集群节点后,进入 spark 文件目录
cd /usr/lib/emr/current/spark
调用 bin 目录下的 spark-shell 脚本启动程序,运行命令模版如下
./bin/spark-shell
调用 bin 目录下的 pyspark 脚本启动程序,运行命令模版如下
./bin/pyspark
调用 bin 目录下的 spark-sql 脚本启动程序,运行命令模版如下
./bin/spark-sql
登陆集群节点,进入 spark 文件目录
cd /usr/lib/emr/current/spark
首先需要使用 Spark 的 API 实现一个拥有入口(main)的程序,然后通过 spark-submit 提交,如运行 spark 自带 Pi 示例程序
jar包提交: ./bin/spark-submit --class org.apache.spark.examples.SparkPi examples/jars/spark-examples_2.12-3.2.1-bd1-SNAPSHOT.jar 10 python file: ./bin/spark-submit examples/src/main/python/pi.py 10
运行成功会返回日志及 application_id 链接,如果要查看具体任务运行情况,可以登 yarn 界面搜索 application_id 查看任务