我的环境是 Windows 7,安装了 scala 2.11.4(运行良好),Java 1.8
我已经尝试过 spark-1.2.0-bin-hadoop2.4 和 spark-1.2.1-bin-hadoop2.4 并且每次我都放
bin\spark-shell.cmd
我刚刚收到来自 Windows 的错误:
find: 'version': No such file or directory
else was unexpected at this time.
这里有什么我忽略的吗?
非常感谢。
更新:(来自 spark-class2.cmd)
C:\Users\spark-1.2.1-bin-hadoop2.4>for /F "tokens=3" %i in ('java -version 2>&1 | find "version"') do set jversi on=%i
find: 'version': No such file or directory
else was unexpected at this time.
如果我尝试 java -version,它似乎在 java 端工作
C:\Users\spark-1.2.1-bin-hadoop2.4>java -version
java version "1.8.0_31"
Java(TM) SE Runtime Environment (build 1.8.0_31-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.31-b07, mixed mode)
请您参考如下方法:
我已经解决了这个问题。这是我的解决方案。
我安装了 cygwin 并且 PATH 系统变量指向 C:\cygwin64\bin\其中有一个 find.exe。
因此,spark-class2.cmd中的一行
for /f "tokens=3" %%i in ('java -version 2^>^&1 ^| find "version"') do set jversion=%%i
没有使用正确的“查找”可执行文件。
将这一行改成这个
for /f "tokens=3" %%i in ('java -version 2^>^&1 ^| C:\Windows\System32\find.exe "version"') do set jversion=%%i
解决了我的问题。