我按照说明使用Scala 2.11构建Spark:
mvn -Dscala-2.11 -DskipTests clean package
然后我按照说明启动:
./sbin/start-master.sh
它在日志文件中以两行失败:
Failed to find Spark assembly in /etc/spark-1.2.1/assembly/target/scala-2.10
You need to build Spark before running this program.
显然,它正在寻找一个scala-2.10构建,但是我做了一个scala-2.11构建。我尝试了明显的-Dscala-2.11标志,但这并没有改变任何东西。文档没有提及有关如何在scala 2.11的独立模式下运行的任何内容。
提前致谢!
请您参考如下方法:
构建之前,您必须在以下位置运行脚本:
dev/change-version-to-2.11.sh
应该用2.11替换对2.10的引用。
Note that this will not necessarily work as intended with non-GNU sed (e.g. OS X)