pyspark的helpers和syntax sugar。

sparkl的Python项目详细描述


Sparkly PyPi VersionSparkly Build StatusDocumentation Status

pyspark的helpers&syntax sugar。有几个功能可以让您的生活更轻松:

  • 在代码中定义spark包、外部jar、udf和spark选项;
  • Cassandra、Elastic、MySQL、Kafka的简化读写器API;
  • Spark应用程序的测试框架。

有关详细信息,请参见the official documentation

安装

Sparkly本身易于安装:

pip install sparkly

棘手的部分是pyspark。没有关于 皮皮。作为解决方法,我们建议:

  1. 使用env变量PYTHONPATH指向Spark安装, 例如:

    export PYTHONPATH="/usr/local/spark/python/lib/pyspark.zip:/usr/local/spark/python/lib/py4j-0.10.4-src.zip"
    
  2. 使用我们的setup.py文件作为pyspark。把这个加到你的 requirements.txt

    -e git+https://github.com/Tubular/spark@branch-2.1.0#egg=pyspark&subdirectory=python
    

在tubular中,我们向内部pypi发布了pyspark。 储存库。

开始

下面是一个小代码片段,演示如何轻松读取cassandra表 并将其内容写入ElasticSearch索引:

from sparkly import SparklySession


class MySession(SparklySession):
    packages = [
        'datastax:spark-cassandra-connector:2.0.0-M2-s_2.11',
        'org.elasticsearch:elasticsearch-spark-20_2.11:6.5.4',
    ]


if __name__ == '__main__':
    spark = MySession()
    df = spark.read_ext.cassandra('localhost', 'my_keyspace', 'my_table')
    df.write_ext.elastic('localhost', 'my_index', 'my_type')

参见the online documentation了解 更多细节。

测试

要运行测试,必须有dockerdocker-compose安装在 系统。如果您正在使用macos,我们强烈建议您使用 docker-machine。一旦 上面提到的工具已经安装,您只需运行:

make test

支持的Spark版本

目前我们支持:

sparkly >= 2.7 | Spark 2.4.x
sparkly 2.x | Spark 2.0.x and Spark 2.1.x and Spark 2.2.x
sparkly 1.x | Spark 1.6.x

欢迎加入QQ群-->: 979659372 Python中文网_新手群

推荐PyPI第三方库


热门话题
Java Square类   java Android RecyclerView内部视图寻呼机   java类变量:公共访问只读,但私有访问r/w   java不兼容ClassChangeError java8   安卓java on on参数,如参数iNIT.C++C++   java如何在下面的代码中根据我的喜好设置JTextArea和JTextField的大小?   java使用CustomAdapter更改ListView的显示方式   jakarta ee什么是Java Servlet?   传递给Javasocket程序的参数   java为什么我的计划任务在这两者之间有很长的延迟   Java“迭代器”关键字   java获取数据库SQLite Android中插入行的行ID   网络如何在Java应用程序中设置H2嵌入式数据库,以便在小型网络中使用?   数组Java:写出所有包含K1的Nbit序列   java返回随机字符串键的整数值   在java中解析到日期的字符串时保留时区   java如何修复“运行配置错误:[在SDK中找不到Rails]”?   Java包装器OutofMemory