IT虾米网

windows之Spark 发射 : find version

grandyang 2023年11月10日 编程语言 206 0

我的环境是 Windows 7,安装了 scala 2.11.4(运行良好),Java 1.8

我已经尝试过 spark-1.2.0-bin-hadoop2.4 和 spark-1.2.1-bin-hadoop2.4 并且每次我都放

bin\spark-shell.cmd 

我刚刚收到来自 Windows 的错误:

find: 'version': No such file or directory 
else was unexpected at this time. 

这里有什么我忽略的吗?

非常感谢。

更新:(来自 spark-class2.cmd)

C:\Users\spark-1.2.1-bin-hadoop2.4>for /F "tokens=3" %i in ('java -version 2>&1 | find "version"') do set jversi on=%i 
find: 'version': No such file or directory 
else was unexpected at this time. 

如果我尝试 java -version,它似乎在 java 端工作

C:\Users\spark-1.2.1-bin-hadoop2.4>java -version 
java version "1.8.0_31" 
Java(TM) SE Runtime Environment (build 1.8.0_31-b13) 
Java HotSpot(TM) 64-Bit Server VM (build 25.31-b07, mixed mode) 

请您参考如下方法:

我已经解决了这个问题。这是我的解决方案。

我安装了 cygwin 并且 PATH 系统变量指向 C:\cygwin64\bin\其中有一个 find.exe。

因此,spark-class2.cmd中的一行

for /f "tokens=3" %%i in ('java -version 2^>^&1 ^| find "version"') do set jversion=%%i 

没有使用正确的“查找”可执行文件。

将这一行改成这个

for /f "tokens=3" %%i in ('java -version 2^>^&1 ^| C:\Windows\System32\find.exe "version"') do set jversion=%%i 

解决了我的问题。


评论关闭
IT虾米网

微信公众号号:IT虾米 (左侧二维码扫一扫)欢迎添加!