我想从python以编程方式向Kubernetes集群提交一个SparkApplication。在
像这样的作业定义job.yaml
apiVersion: sparkoperator.k8s.io/v1beta1
kind: SparkApplication
metadata:
name: my-test
namespace: default
spec:
sparkVersion: "2.4.0"
type: Python
...
使用kubectl apply -f job.yaml
运行时没有问题,但我无法确定是否以及如何使用kubernetes-client以编程方式启动此作业。在
有人知道怎么做吗?在
下面是所提到的示例,如何使用kubernetes python客户机在kubernetes上创建第三方资源。在
希望这有帮助。在
这可能就是你要找的:
源https://github.com/kubernetes-client/python/blob/master/kubernetes/docs/CustomObjectsApi.md#create_namespaced_custom_object
相关问题 更多 >
编程相关推荐