博客
关于我
mac下Python2运行SparkSQL
阅读量:96 次
发布时间:2019-02-26

本文共 601 字,大约阅读时间需要 2 分钟。

1. 环境如下

参考:https://blog.csdn.net/qq_21383435/article/details/79240276

##1.1 安装Anaconda

https://www.anaconda.com/download/#macos

这里写图片描述

注意:这里建议下载Python 2.7 version *,因为最新的spark可能不支持

1.2 配置环境变量

lcc@lcc ~$ vim .bash_profileexport SPARK_HOME=/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7export PATH=$PATH:$SPARK_HOME/binexport PYTHONPATH=/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7/python:/Users/lcc/soft/spark/spark-2.0.1-bin-hadoop2.7/python/lib/py4j-0.10.3-src.zipexport PYSPARK_DRIVER_PYTHON=/anaconda2/bin/ipython# added by Anaconda2 5.2.0 installerexport PATH="/anaconda2/bin:$PATH"

##1.3 配置PyCharm</

你可能感兴趣的文章
Netty工作笔记0042---Netty入门--编写客户端
查看>>
Netty工作笔记0043---单Reactor多线程模式
查看>>
Netty工作笔记0044---Netty案例源码分析
查看>>
Netty工作笔记0044---scheduledTaskQueue
查看>>
Netty工作笔记0045---Netty模型梳理
查看>>
Netty工作笔记0045---异步模型原理剖析
查看>>
Netty工作笔记0046---TaskQueue自定义任务
查看>>
Netty工作笔记0046---异步模型原理剖析
查看>>
Netty工作笔记0047---Http服务程序实例
查看>>
Netty工作笔记0048---Http服务过滤资源
查看>>
Netty工作笔记0049---阶段内容梳理
查看>>
Netty工作笔记0050---Netty核心模块1
查看>>
Netty工作笔记0051---Netty核心模块2
查看>>
Netty工作笔记0052---Pipeline组件剖析
查看>>
Netty工作笔记0053---Netty核心模块梳理
查看>>
Netty工作笔记0054---EventLoop组件
查看>>
Netty工作笔记0055---Unpooled应用实例1
查看>>
Netty工作笔记0056---Unpooled应用实例2
查看>>
Netty工作笔记0057---Netty群聊系统服务端
查看>>
Netty工作笔记0058---Netty群聊系统客户端
查看>>