1、Exception in thread "main" org.apache.spark.SparkException: Cluster deploy mode is not applicable to Spark shells.
具體報錯信息.png
解決方案:
使用命令:
spark-shell --master yarn --deploy-mode client
2、Caused by: java.lang.IllegalStateException: Cannot call methods on a stopped SparkContext.
part1.png
part2.png
原因:沒有關閉sc資源
解決:
sqlContext.sparkSession.close()
sc.stop()
詳細檢查寫結束的位置,寫在最后,解決問題。低級失誤
多加了最后一行即解決.png