查詢Spark應(yīng)用的日志。
接口說(shuō)明
- 地域的公網(wǎng)接入地址:
adb.<region-id>.aliyuncs.com
。示例:adb.cn-hangzhou.aliyuncs.com
。 - 地域的 VPC 接入地址:
adb-vpc.<region-id>.aliyuncs.com
。示例:adb-vpc.cn-hangzhou.aliyuncs.com
。
說(shuō)明
如果華北 1(青島)、華南 1(深圳)、華南 3(廣州)、中國(guó)香港發(fā)起請(qǐng)求時(shí),遇到 409 錯(cuò)誤,請(qǐng)聯(lián)系技術(shù)支持。
調(diào)試
您可以在OpenAPI Explorer中直接運(yùn)行該接口,免去您計(jì)算簽名的困擾。運(yùn)行成功后,OpenAPI Explorer可以自動(dòng)生成SDK代碼示例。
授權(quán)信息
下表是API對(duì)應(yīng)的授權(quán)信息,可以在RAM權(quán)限策略語(yǔ)句的Action
元素中使用,用來(lái)給RAM用戶或RAM角色授予調(diào)用此API的權(quán)限。具體說(shuō)明如下:
- 操作:是指具體的權(quán)限點(diǎn)。
- 訪問(wèn)級(jí)別:是指每個(gè)操作的訪問(wèn)級(jí)別,取值為寫(xiě)入(Write)、讀取(Read)或列出(List)。
- 資源類型:是指操作中支持授權(quán)的資源類型。具體說(shuō)明如下:
- 對(duì)于必選的資源類型,用背景高亮的方式表示。
- 對(duì)于不支持資源級(jí)授權(quán)的操作,用
全部資源
表示。
- 條件關(guān)鍵字:是指云產(chǎn)品自身定義的條件關(guān)鍵字。
- 關(guān)聯(lián)操作:是指成功執(zhí)行操作所需要的其他權(quán)限。操作者必須同時(shí)具備關(guān)聯(lián)操作的權(quán)限,操作才能成功。
操作 | 訪問(wèn)級(jí)別 | 資源類型 | 條件關(guān)鍵字 | 關(guān)聯(lián)操作 |
---|---|---|---|---|
adb:GetSparkAppLog | get | *DBClusterLakeVersion acs:adb:{#regionId}:{#accountId}:dbcluster/{#DBClusterId}/resourcegroup/{#ResourceGroup}/sparkapp/{#SparkAppId} |
| 無(wú) |
請(qǐng)求參數(shù)
名稱 | 類型 | 必填 | 描述 | 示例值 |
---|---|---|---|---|
AppId | string | 是 | 應(yīng)用 ID。 說(shuō)明
調(diào)用 ListSparkApps 接口查詢 Spark 應(yīng)用的 ID。
| s202206061441hz22a35ab000**** |
LogLength | long | 否 | 日志的行數(shù)。取值范圍為 1~500,默認(rèn)值為 300。 | 20 |
DBClusterId | string | 否 | 企業(yè)版、基礎(chǔ)版或湖倉(cāng)版集群 ID。 說(shuō)明
您可以調(diào)用 DescribeDBClusters 接口查看目標(biāo)地域下所有集群的集群 ID。
| amv-2ze6fl8ud7t*** |
PageNumber | integer | 否 | 讀取日志的頁(yè)碼號(hào)。 | 1 |
PageSize | integer | 否 | 單頁(yè)數(shù)據(jù)行數(shù)。 | 500 |
返回參數(shù)
示例
正常返回示例
JSON
格式
{
"RequestId": "C3A9594F-1D40-4472-A96C-8FB8AA20D38C",
"Data": {
"LogContent": "22/04/22 15:30:49 INFO Utils: Start the dump task because s202206061441hz22a35ab000****-0001 app end, the interval is 238141ms;22/04/22 15:30:49 INFO AbstractConnector: Stopped Spark@5e774d9d{HTTP/1.1, (http/1.1)}{0.0.0.0:4040}",
"Message": "WARNING: log file maybe deleted, please check oss path: oss://TestBucketName/applog/",
"DBClusterId": "amv-clusterxxx",
"LogSize": 3517972480
}
}
錯(cuò)誤碼
HTTP status code | 錯(cuò)誤碼 | 錯(cuò)誤信息 | 描述 |
---|---|---|---|
400 | Spark.InvalidState | The object of the operation is in an invalid state: %s | 操作對(duì)象處于非合法狀態(tài)。 |
400 | Spark.InvalidParameter | Invalid parameter value: %s | 輸入?yún)?shù)不正確: %s。 |
400 | Spark.RoleArn.Invalid | %s is not found, or the RAM role has not been authorized. | RoleArn不存在或子賬號(hào)未授權(quán)。 |
400 | Spark.Oss.InternalError | An OSS internal error occurred: %s | OSS內(nèi)部錯(cuò)誤,請(qǐng)求失敗。 |
400 | Spark.Log.IllegalPath | Invalid job log URI: %s. | 配置的Spark日志路徑不合法:%s。 |
400 | Spark.AnalyzeTask.AppStateNotAccepted | Only Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement. | 只允許分析處于終止?fàn)顟B(tài)的 Spark app。指定 app 不滿足條件。 |
400 | Spark.AnalyzeTask.FailedToKill | Failed to terminate the Spark log analysis task %s, because the task status has changed. Obtain the latest status and try again. | 殺死Spark日志分析任務(wù)的請(qǐng)求執(zhí)行失敗,因?yàn)閷?duì)應(yīng)任務(wù)狀態(tài)已經(jīng)發(fā)生了變化。請(qǐng)獲取分析任務(wù)最新?tīng)顟B(tài)后執(zhí)行。 |
400 | Spark.AnalyzeTask.InvalidStateWhenAnalyzingApp | Only logs of Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement. | 僅允許針對(duì)處于終止?fàn)顟B(tài)的Spark作業(yè)執(zhí)行日志分析程序。當(dāng)前作業(yè)不滿足條件。 |
400 | Spark.App.InvalidResourceSpec | The requested resource type is not supported:\n %s | - |
400 | Spark.App.ParameterConflict | Conflicting parameters submitted:\n %s | - |
400 | Spark.Config.invalidConnectors | The spark.adb.connectors configuration is invalid: %s | spark.adb.connectors配置不正確。 |
400 | Spark.Config.RoleArnVerifyFailed | RoleARN parameter verification failed. Error msg: %s when verify RoleArn %s | RoleARN參數(shù)校驗(yàn)失敗。 |
400 | Spark.Log.InvalidState | Failed to obtain the logs of the Spark job %s in the %s state. | 無(wú)法獲取指定Spark作業(yè)的日志。 |
400 | Spark.SQL.NotFoundExecutableSQLError | No executable statements are submitted. Please check the input SQL. | Spark作業(yè)的SQL信息中不包含可執(zhí)行語(yǔ)句。 |
400 | Spark.SQL.ParserError | Failed to parse the SQL %s. Error message: %s. | Spark作業(yè)信息中的SQL無(wú)法解析。 |
403 | Spark.Forbidden | No permissions to access the resources: %s | 權(quán)限不足,拒絕訪問(wèn)相關(guān)資源。您當(dāng)前申請(qǐng)?jiān)L問(wèn)的信息是:%s。 |
404 | Spark.Log.PodLogNotFound | Can't find logs of the pod by podName[%s] in the namespace[%s]. | 無(wú)法通過(guò)podName找到對(duì)應(yīng)pod的日志 [%s]。 |
404 | Spark.AnalyzeTask.NotFound | The requested analysis task %s is not found. | 請(qǐng)求查看的日志分析任務(wù) %s 不存在。 |
404 | Spark.App.ContentNotFound | The requested content %s of the Spark application is not found. | 找不到指定Spark作業(yè)的提交內(nèi)容。 |
404 | Spark.ObjectNotFound | The object is not found. More information: %s | 操作對(duì)象不存在。關(guān)聯(lián)信息:%s。 |
404 | Spark.TemplateFile.FileNotFound | The template file %s is not found. | 未能找到輸入的模板文件。 |
404 | Spark.TemplateFile.TemplateNotFound | The template %s is not found. | 模板文件未找到。 |
500 | Spark.ServerError | The Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %s | Spark管控組件系統(tǒng)遇到錯(cuò)誤,請(qǐng)?zhí)峤还危蚵?lián)系值班工程師。 |
訪問(wèn)錯(cuò)誤中心查看更多錯(cuò)誤碼。
變更歷史
變更時(shí)間 | 變更內(nèi)容概要 | 操作 |
---|---|---|
2024-01-18 | OpenAPI 錯(cuò)誤碼發(fā)生變更、OpenAPI 入?yún)l(fā)生變更、OpenAPI 返回結(jié)構(gòu)發(fā)生變更 | 查看變更詳情 |
2023-11-24 | OpenAPI 錯(cuò)誤碼發(fā)生變更、OpenAPI 入?yún)l(fā)生變更 | 查看變更詳情 |
2023-06-28 | OpenAPI 錯(cuò)誤碼發(fā)生變更 | 查看變更詳情 |