我使用AWS数据管道运行每夜的SQL查询,这些查询填充汇总统计表。这个用户界面有点古怪,但最终我把它装起来并开始工作了。
现在我想用python脚本做一些类似的事情。我有一个每天早上在笔记本电脑上运行的文件(forecast_rev.py
),但这当然意味着我必须每天打开笔记本电脑并启动它。当然,我可以安排一个管道来做同样的事情,这样我就可以去度假而不在乎了。
在我的一生中,我找不到关于这个的教程,AWS文档,或者StackOverflow!我甚至不知道怎么开始。有没有人愿意分享一条简单的管道?
Tags:
我也遇到过类似的情况,我就是这么过来的。
我要描述一下我是如何使用Ec2Resource的。如果您正在EMRCluster中寻找解决方案,请参阅@franklinsijoanswer。
步骤
1。将python脚本存储在s3中。
2。创建一个shell脚本(hello.sh)(如下所示)并将其存储到s3
3。创建Ec2Resource节点和ShellCommandActivity节点并提供这些信息。
ShellCommandActivity
中将“stage”设置为true。它应该在你的DefaultResource
上运行下面是shell脚本(hello.sh),它从s3下载python程序并在本地存储,安装python和所需的第三方库,最后执行python文件。
你好。sh
我在尝试bang line时遇到了困难,所以不要将它们包含在这里。
如果
aws cp
命令不起作用(awscli更旧),这里有一个快速解决方案s3DataNode
。一、 在S3DataNode的“文件路径”中提供您的python s3 url。
二。提供数据节点作为
ShellCommandActivity
的“输入” 三、 在
ShellCommandActivity
的“command”字段中编写以下命令命令
可以使用此模板作为示例: http://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-template-redshiftrdsfull.html 它使用存储在s3上的python脚本将MySQL模式转换为RedShift模式。
运行python程序的python shell脚本示例:
相关问题 更多 >
编程相关推荐