只有在集群上运行Spark的时候,才需要Hadoop. 环境:Windows 10. 安装分为以下步骤:. Java的安装(JDK); Python的安装(Anaconda); pyspark的安装 ...
確定! 回上一頁