我按照说明使用Scala 2.11构建Spark:

mvn -Dscala-2.11 -DskipTests clean package 

然后我按照说明启动:
./sbin/start-master.sh 

它在日志文件中以两行失败:
Failed to find Spark assembly in /etc/spark-1.2.1/assembly/target/scala-2.10 
You need to build Spark before running this program. 

显然,它正在寻找一个scala-2.10构建,但是我做了一个scala-2.11构建。我尝试了明显的-Dscala-2.11标志,但这并没有改变任何东西。文档没有提及有关如何在scala 2.11的独立模式下运行的任何内容。

提前致谢!

请您参考如下方法:

构建之前,您必须在以下位置运行脚本:

dev/change-version-to-2.11.sh



应该用2.11替换对2.10的引用。

Note that this will not necessarily work as intended with non-GNU sed (e.g. OS X)


评论关闭
IT序号网

微信公众号号:IT虾米 (左侧二维码扫一扫)欢迎添加!