調用 CreateFlowJob接口,創建數據開發作業。

調試

您可以在OpenAPI Explorer中直接運行該接口,免去您計算簽名的困擾。運行成功后,OpenAPI Explorer可以自動生成SDK代碼示例。

請求參數

名稱 類型 是否必選 示例值 描述
Action String CreateFlowJob

系統規定參數。取值:CreateFlowJob

RegionId String cn-hangzhou

地域ID。您可以調用DescribeRegions查看最新的阿里云地域列表。

ProjectId String FP-A4FEE10D860*****

項目ID。您可以調用ListFlowProjects查看項目ID。

Name String my_spark_job

作業的名稱。

Description String Job description

作業的描述。

Type String SPARK

作業類型,取值如下:

  • SPARK:spark作業,使用spark-submit提交
  • ZEPPELIN:提交zeppelin notebook,使用該作業類型,作業的params參數為notebook id
  • SPARK_STREAMING:提交spark流處理作業
FailAct String STOP

失敗策略,取值如下:

  • CONTINUE:跳過本次作業
  • STOP:停止作業(default)
RetryPolicy String

保留參數。

Params String oss://bucket_name/jar_to_run.jar

作業內容,如果是SPARK類型的作業,則該參數即為spark-submit的參數,如果為ZEPPELIN類型的作業,該參數為Notebook的ID。

ParamConf String

保留參數。

CustomVariables String [{\"name\":\"key1\",\"value\":\"value1\",\"properties\":{\"password\":false}}]

用戶自定義變量。使用json數組存儲。

EnvConf String {\"key1\":\"value1\"}

環境變量設置。json格式存儲。

RunConf String {\"memory\":1024,\"cores\":2,\"userName\":\"hadoop\"}

運行配置,可選的配置項包括:

  • priority:task的優先級
  • userName:提交任務的linux用戶
  • memory:內存,單位為MB
  • cores:CPU核心數
MonitorConf String {"inputs":[{"type":"KAFKA","clusterId":"C-1234567","topics":"kafka_topic","consumer.group":"kafka_consumer_group"}],"outputs":[{"type":"KAFKA","clusterId":"C-1234567","topics":"kafka_topic"}]}

監控配置,僅SPARK_STREAMING類型的作業支持監控配置。

Mode String YARN

運行模式,取值如下:

  • YARN:將作業包裝成一個launcher提交到YARN中運行
  • LOCAL:作業直接在機器上以進程方式運行
ParentCategory String FC-5BD9575E3462****

父目錄ID,可以調用DescribeFlowCategory查看目錄結構。

Adhoc Boolean false

是否為臨時查詢。

ClusterId String C-A23BD131A862****

集群ID。您可以調用ListClusters查看集群的ID。

AlertConf String

保留參數。

ClientToken String

保留參數。

ResourceList.N.Path String

保留參數。

ResourceList.N.Alias String

保留參數。

返回數據

名稱 類型 示例值 描述
Id String FJ-A23BD131A862****

作業ID。

RequestId String 1549175a-6d14-4c8a-89f9-5e28300f6d7e

請求ID。

示例

請求示例

http(s)://[Endpoint]/?Action=CreateFlowJob
&RegionId=cn-hangzhou
&ProjectId=FP-A4FEE10D860*****
&Name=my_spark_job
&Description=Job description
&Type=SPARK
&FailAct=STOP
&Params=oss://bucket_name/jar_to_run.jar
&CustomVariables=[{\"name\":\"key1\",\"value\":\"value1\",\"properties\":{\"password\":false}}]
&EnvConf={\"key1\":\"value1\"}
&RunConf={\"memory\":1024,\"cores\":2,\"userName\":\"hadoop\"}
&MonitorConf={"inputs":[{"type":"KAFKA","clusterId":"C-1234567","topics":"kafka_topic","consumer.group":"kafka_consumer_group"}],"outputs":[{"type":"KAFKA","clusterId":"C-1234567","topics":"kafka_topic"}]}
&Mode=YARN
&ParentCategory=FC-5BD9575E3462****
&Adhoc=false
&ClusterId=C-A23BD131A862****
&公共請求參數

正常返回示例

XML格式

HTTP/1.1 200 OK
Content-Type:application/xml

<CreateFlowJobResponse>
    <Id>FJ-A23BD131A862****</Id>
    <RequestId>1549175a-6d14-4c8a-89f9-5e28300f6d7e</RequestId>
</CreateFlowJobResponse>

JSON格式

HTTP/1.1 200 OK
Content-Type:application/json

{
  "Id" : "FJ-A23BD131A862****",
  "RequestId" : "1549175a-6d14-4c8a-89f9-5e28300f6d7e"
}

錯誤碼

訪問錯誤中心查看更多錯誤碼。

訪問錯誤中心查看更多錯誤碼。