一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - MAC下Anaconda+Pyspark安裝配置詳細步驟

MAC下Anaconda+Pyspark安裝配置詳細步驟

2022-03-11 00:20Sun_Sherry Python

一般MAC上使用的是zsh的shell工具,需要修改zshrc文件來使環境變量永久生效(若不修改該文件,在命令行中輸入相應的命令即可,本文給大家介紹MAC下Anaconda+Pyspark安裝配置詳細步驟,感興趣的朋友跟隨小編一起看看吧

在MAC的Anaconda上使用pyspark,主要包括以下步驟:

  • 在MAC下安裝Spark,并配置環境變量。
  • 在Anaconda中安裝引用pyspark。

1. MAC下安裝Spark

  到Apark Spark官網上下載Spark文件,無論是windows系統,還是MAC系統,亦或者Linux系統,都可以下載這個文件(獨立于系統)。

MAC下Anaconda+Pyspark安裝配置詳細步驟

將下載的文件進行解壓(可以使用命令行進行解壓,也可以使用解壓軟件)。解壓之后的文件如下:

MAC下Anaconda+Pyspark安裝配置詳細步驟

配置環境變量。打開MAC命令行窗口,輸入如下命令:

sudo vi ~/.bash_profile #bash_profile是當前用戶的環境變量文件

打開bash_profile文件,并在該文件中增加以下兩行命令:

export SPARK_HOME="/Users/sherry/documents/spark/spark-3.1.2-bin-hadoop2.7" #spark文件的完整解壓目錄
export PATH=${PATH}:${SPARK_HOME}/bin

如下圖

MAC下Anaconda+Pyspark安裝配置詳細步驟

保存并退出之后,運行以下命令:

source ~/.bash_profile #讓修改的bash_profile生效
echo $PATH #查看環境變量,可以看到新增的路徑名

一般MAC上使用的是zsh的shell工具,需要修改zshrc文件來使環境變量永久生效(若不修改該文件,在命令行中輸入spark- shell或者pyspark時可能會提示zsh:command not found:pysparkzsh:command not found spark-shell )。輸入以下命令:

vi ~/.zshrc

修改該文件,添加如下命令:

if [ -f ~/.bash_profile ]; then
      source ~/.bash_profile
fi 

保存并退出即可。下面來驗證spark是否正確安裝,具體如下:
(1)命令行中輸入spark-shell

MAC下Anaconda+Pyspark安裝配置詳細步驟

(2)命令行中輸入pyspark

MAC下Anaconda+Pyspark安裝配置詳細步驟

至此,spark已經安裝成功。

2.在Anaconda中引用pyspark

  想要在Anacond中使用pyspark, 只需將spark解壓文件中python文件夾下的pyspark復制到Anaconda下的site-packages文件中。下面來驗證一下是否能在spyder中使用pyspark, 使用如下代碼:

from pyspark import SparkContext, SparkConf

if __name__ == "__main__":
  spark_conf = SparkConf()\
      .setAppName('Python_Spark_WordCount')\
      .setMaster('local[2]') 
  #使用spark最原始的API進行數據分析
  sc = SparkContext(conf=spark_conf)
  sc.setLogLevel('WARN')
  print (sc)
 # ------創建RDD,需要分析的數據 --------------------------------------
  def local_rdd(spark_context):
      datas = ['hadoop spark','hadoop hive spark','hadoop hive spark',\
               'hadoop python spark','hadoop python spark',]
      return spark_context.parallelize(datas)

  rdd = local_rdd(sc)
  print (rdd.count())
  print (rdd.first())
  sc.stop()

運行發現提示如下錯誤:

MAC下Anaconda+Pyspark安裝配置詳細步驟

從提示信息可以知道,找不到SPARK_HOME??梢栽谏鲜鲋骱瘮抵性黾尤缦麓a:

import os
#添加spark安裝目錄
os.environ['SPARK_HOME'] ='/Users/sherry/documents/spark/spark-3.1.2-bin-hadoop2.7'

重新運行即可得到如下結果:

5

hadoop spark到此這篇關于MAC+Anaconda+Pyspark安裝配置教程的文章就介紹到這了,更多相關Anaconda Pyspark安裝配置內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/yeshang_lady/article/details/121570361
 

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 亚洲高清毛片一区二区 | 娇妻终于接受了3p的调教 | 精品国产福利片在线观看 | bt7086新片速递亚洲最新合集 | 亚洲天堂免费看 | gogort人体的最新网站 | 天美传媒tm0087 | jizzjizz成熟丰满舒服 | 天天操夜夜操狠狠操 | 黑人异族日本人hd | 欧美成人午夜片一一在线观看 | porno日本大学生高清 | 91短视频在线免费观看 | 秋霞午夜伦午夜高清福利片 | 欧美18~20性hd| 国产精品一久久香蕉产线看 | 国产一精品一av一免费爽爽 | 俄罗斯一级淫片bbbb | 国产精品一区久久精品 | 日韩网站在线 | 色综合天天网 | 99亚洲| 久久婷婷五月综合色精品首页 | 18亚洲chinese男男1069 | 亚洲 欧美 另类 中文 在线 | 日本妇人成熟免费不卡片 | 国产精品视频一区二区三区经 | 免费99精品国产自在现线 | 亚洲欧美一区二区三区在线观看 | 国产精品国产国产aⅴ | 欧美区在线 | 日韩成人在线视频 | 无人区在线观看免费视频国语 | 俄罗斯freeoo性另类 | 国产成人精品一区二区 | 韩国一级淫片特黄特刺激 | 成人国产精品视频频 | 久久理论片迅播影院一级 | 四虎永久网址在线观看 | 国产精品免费看香蕉 | 亚洲欧美日韩国产一区二区精品 |