Pyspark管理框架

sparkmanager的Python项目详细描述


Spark Management Consolidated是一个小模块,它将作为一个单独的类对象加载以管理Spark相关的东西。


代码::shell

pip安装https://github.com/matz-e/sparkmanager/tarball/master

,或为当前用户:

代码::shell

pip install--用户https://github.com/matz-e/sparkmanager/tarball/master

用法
----


>模块本身充当触发的中介:

。代码::python

import sparkmanager as sm

“8g”)]

一旦调用了“create”方法,这两个属性都会被实例化,可以选择直接通过
py:class:`sparkmanager`对象从这两个对象调用明确的方法:

。代码::python

以下两个调用是等效的
c=sm.parallelize(range(5))
d=sm.sc.parallelize(range(5))
assert c.collect()==d.collect()

注意:

要在集群上运行的脚本仍然是一些实验性的,应该小心使用!

环境设置
~目前,它已调整到
“bbpviz”集群的要求。用法示例:

…代码:shell:Br/> SpkkRooSt//PAT/OS/MES/DILR/= /PATH/AT/A/Works/Directory示例/Env.SH
BR/>工作目录将包含:
BR/> * Python虚拟环境BR/> *指向工作Br/>目录
目录中的目录的基本星图配置,建立环境脚本设置

以使用生成的工作环境:

…代码::shell

。/路径/to/a/work/directory/env.sh

脚本将由“pip”自动安装。若要使用它,请传递包含环境的工作目录或分别指定它们:

。代码::shell

sm_cluster startup$workdir
sm_cluster startup$workdir/path/to/some/env.sh


代码::shell

sm廑cluster shutdown$workdir
sm廑cluster shutdown$workdir/path/to/some/env.sh


Spark应用程序然后可以连接到通过以下路径找到的主应用程序:

。代码::shell

cat$workdir/spark嫒master

~~~~~~~~~~~~~~~~~~~~~~


在当前shell中设置一个spark环境,并将“workdir”指向一个
共享目录。“SpkkHoad”需要在你的环境中,指向你的火花装置。默认情况下,只有带有spark master和
集群启动脚本的文件将被复制到“workdir”。然后提交一个
群集,其中:

…代码::shell

sbatch-a proj16-t 24:00:00-n4--exclusive-c nvme$(哪个sm_集群)startup$workdir



欢迎加入QQ群-->: 979659372 Python中文网_新手群

推荐PyPI第三方库


热门话题
java如何在构造函数外部添加鼠标侦听器   java如何使用比较器对列表进行排序以正确排序空值?   javajavax。由于javax,邮件“535.7.3身份验证失败”。邮件升级(v1.3.1至v1.5.2)   java将arraylist流到固定的二维数组中并打印?   RecyclerView适配器上的java上下文   java如何为此Twitter API为KafkaProducer建立连接   java Spring安全性重写WebSecurity配置适配器的配置(AuthenticationManagerBuilder)是否会影响全局应用程序?   线程“awteventque0”NullPointerException中的java异常   if条件中的null值和null指针异常java   java树集<Object>允许相同类型的多个对象   java定义类;我认不出   字符串java replaceAll()   JAVAutil。scanner(Java)读取文件时如何跳过空格?   java在swing中关闭flash屏幕   java在Wildfly 16中的应用程序中加载pk12文件   有没有工具可以自动生成屏幕抓取的Java代码   创建意图时,java方法getParcelableExtra()返回null   将数据从java传递到jsp   java Android Studio |永久保存布局